읽고 있는 내용이 AI에 의해 작성되었는지 확인하는 방법

2022년 말 ChatGPT가 세계에 인공지능을 도입한 이후, 앞으로는 읽고 있는 것이 인간이 쓴 것이라고 더 이상 믿을 수 없다는 것이 분명해졌습니다. ChatGPT와 같은 AI 프로그램에 무언가를 작성하도록 요청할 수 있으며, anything는 단 몇 초 만에 작성할 수 있습니다. 그렇다면 당신이 읽고 있는 것이 알고리즘의 산물이 아니라 사람의 마음에서 나온 것이라고 어떻게 믿을 수 있겠습니까?
AI 버블의 지속적인 디플레이션이 우리에게 어떤 영향을 미쳤다면, 대부분의 사람들이 일반적으로 AI를 싫어한다는 것입니다. 이는 아마도 그들이 읽고 있는 내용이 기계에 의해 무분별하게 뱉어졌다는 생각에 관심이 없을 것입니다. 그럼에도 불구하고, 일부 사람들은 현실적인 텍스트를 생성하는 AI의 능력을 완전히 받아들였습니다. 작년에 CNET은 조용히 인간이 작성한 기사와 함께 AI 콘텐츠를 게시하기 시작했지만, 직원들의 경멸과 반발에 직면했습니다. 전직 Lifehacker 모회사 G/O Media도 AI 콘텐츠를 공개적으로 사이트에 게시했지만, 직원 입력 없이 기술을 구현한 것과 콘텐츠 자체가 끔찍했기 때문에 같은 반발을 경험했습니다.
하지만 모든 인공지능이 생성한 텍스트가 그렇게 명확하게 스스로를 발표하는 것은 아닙니다. AI 프로그램을 올바르게 사용하면 비인간적인 출처를 드러내는 단서를 발견할 수 있더라도 설득력 있는 텍스트를 생성할 수 있습니다.
AI 글쓰기 작동 방식
생성적 AI는 인간처럼 질문에 답할 수 있는 모든 것을 알고 있는 디지털 의식이 아닙니다. 실제로는 전혀 "지능적"이지 않습니다. 현재 AI 도구는 대규모 데이터 세트(이 경우 텍스트 데이터 세트)에서 학습된 딥러닝 알고리즘인 대형 언어 모델(LLM)로 구동됩니다. 이 교육은 사용자 질문에 대한 모든 응답을 알려줍니다. ChatGPT에게 무언가를 써달라고 요청하면 AI가 질문을 세분화하여 쿼리에서 가장 중요한 요소인 'thinks'가 무엇인지 파악합니다. 그런 다음 단어 간의 관계에 대한 이해를 바탕으로 요청에 응답하기에 적합한 단어 순서가 무엇인지 "예측"합니다.
더 강력한 모델은 한 번에 더 많은 정보를 얻을 수 있을 뿐만 아니라 더 길고 자연스러운 결과를 자연스럽게 얻을 수 있습니다. 또한 챗봇은 모든 프롬프트에 적용되는 맞춤형 지침으로 프로그래밍되는 것이 일반적이며, 전략적으로 사용하면 AI가 생성한 텍스트의 일반적인 징후를 잠재적으로 가릴 수 있습니다.
즉, AI가 어떻게 대응하도록 유도하든 AI는 훈련에 의존하게 되며, 이러한 텍스트 조각이 LLM에 의해 생성되었다는 징후가 있을 가능성이 높습니다. 다음은 주의해야 할 몇 가지 사항입니다.
일반적으로 사용되는 단어와 구문 주의하기
챗봇은 단어 간의 관계를 찾도록 훈련되었기 때문에 특정 단어와 구문을 사람보다 더 자주 사용하는 경향이 있습니다. 경고 신호 역할을 하는 단어와 구에 대한 구체적인 목록은 없지만, ChatGPT와 같은 도구를 충분히 사용하면 이를 알아차리기 시작할 수 있습니다.
예를 들어, ChatGPT는 특히 글쓰기의 전환 과정에서 "delve"라는 단어를 자주 사용합니다. (예: "그 의미를 깊이 탐구해 봅시다.") 이 도구는 또한 아이디어가 전체 주장을 어떻게 "강조"하는지 표현하는 것을 좋아합니다 (예: "이 경험은 인내의 중요성을 강조합니다.), 그리고 한 가지가 다른 것에 대한 "증거"라는 것입니다. (이 섹션을 위해 ChatGPT로 세 개의 에세이를 작성했는데, 두 개는 GPT-4o로, 다른 하나는 GPT-4o 미니로 작성했습니다.) 각각의 에세이에 "testament"가 나타났습니다.
마찬가지로, 다른 주목할 만한 규칙들 중에서 "출현", "방황", "획기적" 같은 단어들이 반복적으로 사용되는 것을 볼 수 있습니다. 특히 ChatGPT가 무언가의 컬렉션을 설명할 때는 종종 이를 "mosaic" 또는 "태피스트리"라고 부릅니다(예: "마드리드의 문화적 풍경은 생동감 넘치는 모자이크입니다.").")
r/chatgpt의 이 Reddit 스레드는 일반적으로 생성되는 여러 가지 내용을 강조하지만, 게시물이 10개월이 지났고 오픈되어 있다는 점에 주목할 필요가 있습니다.AI는 모델을 자주 업데이트하기 때문에 오늘날 일부 모델은 그다지 관련성이 없을 수 있습니다. 테스트에서 Reddit 스레드에서 가장 많이 인용된 단어 중 일부는 테스트 에세이에 전혀 나타나지 않는 반면, 다른 단어들은 확실히 자주 등장한다는 것을 발견했습니다.
이 모든 단어들은 당신이 직접 글을 쓸 때 사용하기에 확실히 괜찮습니다. 학생이 에세이에 "깊이 파고들기"를 쓴다면, 그것은 그들이 ChatGPT으로 그것을 생성했음을 증명하는 스모킹 건이 아닙니다. 직원이 보고서에 어떤 것이 "다른 것에 대한 증거"라고 쓴다고 해서 업무를 AI에 아웃소싱하는 것은 아닙니다. 이것은 앞으로 텍스트를 분석할 때 주목해야 할 AI 글쓰기의 한 측면일 뿐입니다.
글의 스타일을 고려하세요
특히 강력한 LLM을 사용할 때 AI가 쿼리에 대한 응답을 얼마나 빨리 생성할 수 있는지는 인상적입니다. 그리고 그 글 중 일부는 매우 자연스럽게 보일 수 있지만, 자세히 읽어보면 대부분의 인간 작가들이 사용하지 않는 독특한 점들이 눈에 띄기 시작할 것입니다.
Open을 사용하고 있는지 여부AI의 GPT 모델이나 구글의 제미니 모델인 AI는 마치 마케팅 카피로 훈련된 것처럼 세대에 걸쳐 화려한 언어를 사용하는 나쁜 습관을 가지고 있습니다. AI는 종종 무슨 일이 있어도 열심히 판매하려고 노력합니다: 그 도시는 종종 "통합적", "활발한", 그리고 그 나라의 "주춧돌"로 묘사됩니다. 이 도시가 사용하는 비유는 전체적인 논쟁을 "아름답게" 강조합니다. 부정적인 결과는 단순히 나쁜 것이 아니라 "파괴적"입니다. 이 예시들 중 어느 것도 단독으로 비난하는 것은 아니지만, AI 텍스트를 충분히 읽으면 마치 시소러스와 대화를 나눈 것 같은 느낌을 받기 시작할 것입니다.
챗봇이 캐주얼한 톤을 사용하려고 할 때 이는 더욱 분명해집니다. 예를 들어 봇이 실제 사람인 척하는 경우, 봇은 종종 활기차고 과장된 표현을 하며 너무 열정적이어서 할 말을 듣지 못하는 경우가 많습니다. 솔직히 말해서, 이 기사에 대한 테스트에서 ChatGPT의 GPT-4o 모델은 예전만큼 개인적인 질문에 대한 간결한 답변을 선호하는 것처럼 보이지 않았지만, 메타 AI의 챗봇은 여전히 가짜 문제를 공유할 때마다 절친이자 치료사의 역할을 모두 맡는 방식으로 이를 수행합니다.
논쟁을 표현하는 에세이나 기사를 읽고 있다면, "작가"가 그들의 요점을 어떻게 구성하는지 주목하세요. AI 도구에 너무 많은 코칭을 하지 않고 주제에 대한 에세이를 작성하도록 요청하는 사람은 종종 논쟁을 자세히 다루지 않는 에세이를 받게 됩니다. AI는 앞서 언급한 10개의 단어와 화려한 언어로 이러한 한계를 가리고 논증을 심화하거나 내러티브에 기여하지 않는 표면적인 포인트를 제공하는 짧은 단락을 생성할 가능성이 높습니다. 각 단락은 논쟁 자체에 기여하려는 시도라기보다는 논쟁의 요약에 더 가깝습니다. 기억하세요, LLM은 자신이 주장하는 것이 무엇인지조차 모릅니다. 단지 자신이 속한 것으로 믿는 단어들을 연결할 뿐입니다.
아무것도 배우지 못한 채 작품에서 벗어났다고 느낀다면, 그것은 AI가 하는 일일 수 있습니다.
사실 확인 및 교정
LLM은 블랙박스입니다. 그들의 훈련은 너무 복잡해서, 우리는 그들이 단어들 간의 관계를 정확히 어떻게 이해했는지 내부를 들여다볼 수 없습니다. 우리가 알고 있는 것은 모든 인공지능이 환각을 일으킬 수 있는 능력(및 경향)을 가지고 있다는 것입니다. 다시 말해, 때로는 인공지능이 상황을 만들어낼 수도 있습니다. 다시 말하지만, LLM들은 사실 아무것도 모릅니다: 그들은 단지 훈련을 바탕으로 단어의 패턴을 예측할 뿐입니다. 그래서 그들이 뱉어내는 많은 것들이 진실에 뿌리를 두고 있을 가능성이 높지만, 때로는 잘못된 예측을 하기도 하고, 반대쪽에서는 이상한 결과를 얻을 수도 있습니다. 텍스트를 읽고 있는데, 출처 없이 사실이 아닌 주장이 사실로 명시되어 있는 것을 본다면 회의적으로 생각해 보세요.
반대로, 그 글을 교정하는 데 필요한 양을 생각해 보세요. 오타가 전혀 없고 문법적인 실수가 없다면, 그것도 AI가 알려주는 것입니다: 이 모델들은 실수를 저지를 수 있지만, 철자 오류와 같은 실수를 범하지는 않습니다. 물론 저자는 모든 'i'를 점으로 찍고 모든 't'를 교차하도록 만들었을 수도 있지만, 이미 텍스트가 AI로 생성된 것이 걱정된다면, 여전히 완벽주의는 경품이 될 수 있습니다.
AI 텍스트 감지기를 사용해 보세요 (하지만 그것들도 믿을 수 없습니다).
AI 탐지기는 LLM과 마찬가지로 AI 모델을 기반으로 합니다. 그러나 이러한 탐지기는 대량의 일반 텍스트에 대해 훈련되는 대신 AI 텍스트에 대해 특별히 훈련됩니다. 이론적으로 이는 샘플과 함께 제시될 때 AI 텍스트를 감지할 수 있어야 한다는 것을 의미합니다. 항상 그런 것은 아닙니다.
작년에 AI 탐지기에 대해 글을 쓸 때, 그들이 주장하는 것만큼 신뢰할 수 없기 때문에 사용하지 말라고 경고했습니다. 그 이후로 얼마나 개선되었는지 말하기는 어렵습니다: ZeroGPT와 같은 도구를 통해 제 이야기 중 하나를 입력하면 제 작품이 100% 인간이 쓴 것이라고 나옵니다. (맞습니다.) 해리 포터 시리즈에서 해리가 부모님을 잃은 중요성에 대해 제미니가 작성한 에세이를 제출하면, 이 도구는 작품의 94.95%를 AI가 생성한 것으로 식별합니다. (그것이 인간이 썼다고 생각하는 유일한 문장은 다음과 같습니다: "이 갈등에 대한 개인적인 이해관계는 해리를 다른 인물들과 구별하여 그에게 변함없는 목적을 부여합니다." 물론이죠.)
그럼에도 불구하고 이 탐지기는 여전히 2023년에 실시한 동일한 테스트에 실패합니다: 미국 헌법 제1조 제2항의 100%가 인공지능에 의해 생성된다고 믿고 있습니다. 누가 의회에 말해요! 저는 또한 현대 LLM이 등장하기 훨씬 전인 2015년 7월 16일에 발행된 뉴욕 타임즈의 짧은 기사를 분석하는 것으로 설정했습니다. 다시 한 번, 이 기사가 100% AI라고 확신했습니다.
시중에는 많은 AI 탐지기가 있으며, 어쩌면 일부는 다른 것보다 더 나은 것일 수도 있습니다. 인간이 생성한 것으로 알려진 텍스트를 신뢰성 있게 식별하는 경향이 있는 텍스트를 발견하고, 마찬가지로 알고 있는 텍스트도 AI라면, 확신할 수 없는 글쓰기를 테스트해 보세요. 하지만 여전히 더 나은 방법은 직접 분석하는 것이라고 생각합니다. AI 텍스트는 점점 더 현실적으로 변하고 있지만, 여전히 많은 정보가 담겨 있습니다. 그리고 종종 보면 알게 될 것입니다.
-
'IT 이것저것 > 유용한 업무 팁' 카테고리의 다른 글
마우스 스크롤 휠의 숨겨진 15가지 활용법 (1) | 2025.03.25 |
---|---|
유료 안티바이러스 소프트웨어, 그만한 가치가 있을까요? (2) | 2025.03.25 |
시스템 버스란? 🚀 – 컴퓨터 내부 데이터 흐름의 핵심! (0) | 2025.03.23 |
외장 하드 드라이브가 인식되지 않을 때 해결 방법! (1) | 2025.03.21 |
GPU 팬이 회전하지 않는 이유 및 해결 방법 10가지 (4) | 2025.03.21 |
댓글
KaNonx카논님의
글이 좋았다면 응원을 보내주세요!
이 글이 도움이 됐다면, 응원 댓글을 써보세요. 블로거에게 지급되는 응원금은 새로운 창작의 큰 힘이 됩니다.
응원 댓글은 만 14세 이상 카카오계정 이용자라면 누구나 편하게 작성, 결제할 수 있습니다.
글 본문, 댓글 목록 등을 통해 응원한 팬과 응원 댓글, 응원금을 강조해 보여줍니다.
응원금은 앱에서는 인앱결제, 웹에서는 카카오페이 및 신용카드로 결제할 수 있습니다.