공군도 채택한 드론 영상보안 기술 KCMVP 인증으로 해킹 원천 차단!
페이지 정보
작성자 Navid 작성일25-07-03 04:40 조회3회 댓글0건관련링크
본문
사이언스 보안 차단 기술 적용 웨이브(Science Wave)는 과학의 눈으로 세상을 바라봅니다. 최신 과학뉴스와 쉽고 재미있는 과학상식을 전달합니다.어느 날 뉴스 기사 아래 달린 댓글을 읽다 보면 문득 의심이 들 때가 있다. “이거 진짜 사람이 쓴 걸까?” 지나치게 정제된 문장, 감정을 배제한 어투, 기사 맥락에 딱 들어맞는 요지 정리까지. 실제보다 더 자연스러워 보이는 이 댓글들, 이제는 생성형 보안 차단 기술 적용 인공지능(AI)의 솜씨일 수 있다. 최근 들어 GPT-4o 같은 최신 언어 모델은 사람이 쓰는 댓글과 거의 구별되지 않을 정도로 문장 구조와 논리 흐름을 모방하고 있다. 무엇보다 댓글 1개 생성 비용이 1원에 불과하다는 점에서, 여론 조작을 노린 대량 댓글 생성은 누구나 시도할 수 있는 수준이 됐다. 그렇다면 우리는 이 AI 댓글을 어떻게 보안 차단 기술 적용 구별할 수 있을까? KAIST 전기및전자공학부 김용대 교수 연구팀은 국가보안기술연구소와의 공동 연구를 통해 바로 이 질문에 답할 수 있는 한국어 AI 댓글 탐지 기술 ‘XDAC’를 개발했다. 연구팀은 GPT-4o를 포함한 총 14종의 대규모 언어 모델(LLM)을 활용해 다양한 유형의 AI 댓글을 생성하고, 사람이 작성한 댓글과의 미세한 차이를 분석해냈다. 실험에서는 인간 평가자 4명이 210개 보안 차단 기술 적용 댓글을 보고 AI 여부를 판단했지만, AI 댓글의 67%를 사람이 쓴 것으로 착각했다. 사람 댓글을 제대로 알아본 비율은 73%에 그쳤다.AI 생성 댓글 탐지 예시[자료=KAIST] 분석 결과는 흥미로웠다. AI는 ‘~것 같다’, ‘~에 대해’ 같은 문어체 표현과 접속어를 자주 쓰고, 줄바꿈이나 반복 문자, 서식 기호 등은 거의 사용하지 않았다. 반면 사람은 ‘ㅋㅋㅋㅋ’, ‘ㅠㅠ’, 보안 차단 기술 적용 ‘♡’ 등 자유롭고 감정적인 표현을 즐겨 썼다. 반복 문자를 사용하는 비율만 해도 AI는 12%, 사람은 52%에 달했다. 연구팀은 이 같은 패턴을 모델에 학습시켜 댓글을 정밀 분석한 결과, 98.5% 정확도로 AI 댓글을 탐지할 수 있는 알고리즘을 구현했으며, 작성된 AI 모델의 종류도 84.3%의 확률로 식별 가능했다.AI 댓글 생성 프레임워크 개요 AI가 만든 보안 차단 기술 적용 댓글이 사람이 쓴 댓글보다 더 자연스럽게 보이는 시대. 이제는 “사람처럼 보이는 글”을 만드는 기술만큼, “사람이 쓴 글을 알아보는 기술”도 중요해졌다. KAIST 고우영 선임연구원은 “댓글 작성 시간, 계정 정보, IP 등 메타데이터를 결합하면 탐지 성능은 더 높아질 것”이라며 “향후 AI를 활용한 여론 조작 시도에 실질적 대응이 가능할 것”이라고 강조했다. 한편, 해외에서는 보안 차단 기술 적용 오픈AI, 구글 딥마인드, 메타 등도 AI 생성 콘텐츠를 구분하기 위한 수질 분석 기반(watermarking), 언어 통계 기반 검출 모델을 개발하고 있으며, 영문 기반 AI 감지 툴인 GPTZero, DetectGPT 등이 대표적이다. 하지만 이들 대부분은 긴 영어 문장에 특화돼 있어, 짧고 비형식적인 한국어 댓글 환경에 적용하기에는 한계가 있다. 이번 KAIST의 XDAC는 바로 그 보안 차단 기술 적용 틈새를 겨냥한, 한국어 환경에 특화된 탐지 기술이라는 점에서 의미가 크다.[관련 글 더 보기] 인공지능(AI)으로 만든 가짜 영상과 정보의 피해AI로 제작한 사진과 비디오와 정보가 범람한다. 아무리 봐도 진짜인지 가짜인지 알 수 없다. 인류는 공동생활을 시작한 원시시대부터 악의를 가진 사람의 거짓 정보에 속아 곤혹(困惑)을 치르기 시작했을 것이다. 인공지능이 극도로 발달하는 오늘날에는 진위를 보안 차단 기술 적용 모르는 거짓 영상과 정보가
댓글목록
등록된 댓글이 없습니다.