AI에 대한 우려와 위험

An icon of a key

AI에 대한 우려는 심각합니다. 위험은 실제입니다. 때로는 히스테리적으로 표현되지만, 깊이 파고들면 AI의 영향은 엄청나게 파괴적일 수 있습니다.

AI를 둘러싼 문제와 우려가 너무 많아서 그 자체로 여러 권의 책을 채울 수 있습니다. 내가 모니터링하는 주제의 단어 구름이 여기 있습니다. 몇 가지는 놓쳤을지도 모릅니다.

AI라는 용어를 중심으로 '우려', '윤리', '인류'와 같은 관련 용어가 둘러싸고 있는 단어 구름.

이 주제 각각에 대한 많은 정보가 제공되며, 가능한 한 깊이 읽어보기를 권장합니다. 위험이 이익을 능가한다고 결론을 내리고, 개인적으로나 조직 내에서 AI 사용을 추구하지 않기로 결정할 수도 있습니다. 그 결정은 나름의 위험을 동반합니다; 보통은 뒤처지는 것입니다. 하지만 그것은 개인적인 선택입니다.

“AI의 위험에 관한 책“을 구글링하면 가치 있는 책들을 찾을 수 있습니다. 최근에 제가 특히 소름 끼쳤던 팟캐스트는 Ezra Klein이 Dario Amodei와의 대화, Anthropic의 공동 창업자이자 CEO(Claude.ai를 개발하는 회사)와의 대화였습니다. 이 회사들이 위험을 인식하고 있다는 것을 알게 됩니다. Amodei는 “AI 안전 수준” (A.S.L.)이라는 내부 위험 분류 시스템을 언급합니다 (미국 수화가 아님). 우리는 현재 ASL 2에 있습니다, “위험한 능력의 초기 징후를 보이는 시스템 — 예를 들어 생화학 무기 제조 지침을 제공할 수 있는 능력”. 그는 ASL 4를 “국가 수준의 행위자가 자신의 능력을 크게 향상시킬 수 있도록 하는 것… 북한, 중국 또는 러시아가 AI를 통해 다양한 군사 분야에서 공격 능력을 크게 향상시켜 지정학적 수준에서 상당한 이점을 가질 수 있다고 우리가 우려할 수 있는 수준“으로 설명합니다. 소름 끼치는 내용입니다.

이 암울한 상황 속에서, 작가와 출판사에게 가장 중요한 문제들을 강조해 보겠습니다.

저작권 침해?

An icon of a key

저작권 문제는 복잡성과 모호성의 미로입니다. 일부 저작권이 보호되는 책들이 일부 LLMs의 훈련에 포함된 것은 확실해 보입니다. 그러나 일부 작가들이 두려워하는 것처럼 그들의 모든 작품이 모든 대형 언어 모델에 흡수된 것은 분명 아닙니다.

저작권 문제는 특정하면서도 광범위합니다. 모든 LLMs가 오픈 웹에서 훈련된다는 것은 잘 알려져 있습니다. 오늘날 웹상의 15억 개 사이트에서 스크랩할 수 있는 모든 것, 즉 신문 기사, 소셜 미디어 게시물, 웹 블로그 및 유튜브 비디오의 전사본 등이 포함됩니다.

이것은 입증 가능합니다 최소한 하나의 LLM이 공공 도메인에 속하지 않는 수천 권의 책의 실제 텍스트를 섭취했다는 것이죠.

이 텍스트를 무단으로 섭취하여 수십억 달러 규모의 AI 회사를 구축하는 것이 합법적이었을까요? AI 회사들은 공정 사용에 대한 주장을 하지만, 최종 결정은 법원이 내릴 것입니다. 설령 합법적이었다고 하더라도, 윤리적이거나 도덕적이었을까요? 윤리적 측면은 법적 고려사항보다 덜 복잡해 보입니다. 여러분이 판단해 보세요.

저작권을 둘러싼 법률은 분명 AI가 이 문제에 가져오는 독특한 도전에 대비하지 않았으며, 법적 해결책을 찾는 데는 시간이 걸릴 것입니다. (이 문제에 법률이 적합하지 않은 이유에 대해 더 알고 싶다면, A. Feder Cooper와 James Grimmelmann의 훌륭한 논문 “The Files are in the Computer: Copyright, Memorization, and Generative AI“를 읽어보세요.)

가장 두드러진 소송 13건의 목록이 있습니다. 모두가 책과 관련된 것은 아니며, 이미지와 음악도 포함됩니다. 그리고 또 다른 목록이 있으며, 모든 소송의 상태를 업데이트합니다.

작가를 위한 저작권과 AI

An icon of a key

작가들은 AI 생성 콘텐츠의 저작권 가능성에 관한 추가 문제에 직면하고 있습니다.

AI 생성 콘텐츠의 저작권 가능성에 대한 미국 저작권 사무소의 입장은 AI 자체가 저작권을 가질 수 없다고 명시하고 있습니다. 이는 합리적입니다. 그러나 이는 작업의 100%가 AI에 의해 생성된다는 전제입니다. 다른 곳에서 논의된 바와 같이, 소수의 작가만이 AI로 전체 책을 작성하게 할 것입니다. 더 가능성 있는 경우는 5%, 또는 10% 정도일 것입니다. 여기서 저작권 사무소는 (저도 그럴 것처럼) 곤경에 빠집니다.

더 최근의 판결에서는 인간이 작성한 텍스트와 AI 서비스인 Midjourney가 생성한 이미지로 구성된 그래픽 소설이 저작권을 가질 수 있는 작업으로 결론지었으나, 개별 이미지는 저작권으로 보호될 수 없다고 했습니다. 어휴!

An icon of a key

작가와 출판사는 여러 방면에서 진화하는 저작권 문제에 주의해야 합니다.

장기적인 함의는 무엇인가?

일부는 현재의 소송을 구글 책 소송과 비교하며, 이는 법적으로 해결되기까지 10년이 걸렸습니다. 이러한 소송의 항소 과정이 얼마나 오래 끌지 누가 알겠습니까. 그동안 출판사들은 AI 회사들이 패소할 것처럼 행동하는 것이 신중합니다. 이는 이론적으로는 Chat AI를 라이선스하거나 사용하는 모든 사람에게 일종의 잠재적 책임을 노출시킵니다.

하지만 이는 출판사의 가장 심각한 문제는 아닙니다. 그것은 인식입니다. 많은 작가들에게, 일부는 유명하고 일부는 잘 알려지지 않은, 그 우물은 이미 독이 들었습니다. AI는 작가 및 출판 커뮤니티 내에서 방사성 물질입니다. AI의 냄새가 나는 모든 것은 강한 비판을 받습니다.

수많은 예가 있습니다. 최근 사건에서, 영국 출판사인 Angry Robot은 “현대 성인 SF, 판타지 및 WTF의 최고를 헌신하는” AI 소프트웨어인 Storywise를 사용하여 대량의 원고 제출을 분류할 계획을 발표했습니다. 단 5시간 만에 회사는 계획을 철회하고 다시 “옛날 수신함“으로 돌아갔습니다.

무역 출판사가 내부적으로 AI 도구를 사용하는 데 있어 견딜 수 없는 딜레마: 저자들이 이를 알게 되면 그로 인한 폭풍을 견디기 어려울 것입니다. 출판사들은 용기를 내어 (적어도 일부) 도구를 채택하고, 이러한 도구들이 어떻게 훈련되고 사용되는지 명확히 설명하며, 계속 나아가야 한다고 믿습니다.

영국에서는 The Society of Authors가 강경한 입장을 취합니다: “출판사에게 AI를 교정, 편집(진위 확인 및 사실 확인 포함), 색인 작성, 법적 검토, 디자인 및 레이아웃 또는 기타 작업에 대해 귀하의 동의 없이 상당히 사용하지 않을 것을 확인하도록 요청하십시오. 귀하는 AI에 의해 생성된 오디오북 내레이션, 번역 및 표지 디자인을 금지하고 싶을 수 있습니다.”

Authors Guild는 “출판사들이 편집 및 마케팅 사용을 포함한 통상적인 운영 과정에서 AI를 도구로 사용하기 시작하고 있다“고 수용하는 것처럼 보입니다. 저는 길드의 많은 회원들이 그렇게 이해심이 많다고는 생각하지 않습니다.

AI 회사에 콘텐츠 라이선스 제공

대부분의 출판사와 많은 저자들은 AI 회사에 콘텐츠를 라이선스하는 방법을 모색하고 있습니다. 모두가 라이선스 조건이 무엇이어야 하는지, 자신의 콘텐츠가 얼마나 가치 있는지에 대해 다른 생각을 가지고 있지만, 적어도 논의는 진행되고 있습니다.

출판사(및 경우에 따라 개별 저자)와 협력하려는 여러 스타트업이 있습니다. Calliope NetworksCreated by Humans는 이 점에서 흥미롭습니다.

7월 중순, 오랫동안 업계의 주요 집단 저작권 라이선싱 주체였던 Copyright Clearance Center는 “내부 AI 시스템에서 콘텐츠 사용을 위한 집단 라이선싱 솔루션”의 제공을 발표했습니다. 여기에는 “연간 저작권 라이선스(ACL) 내에서 인공지능(AI) 재사용 권리를 제공하며, 수백만 작품의 권리를 기업에 제공하는 기업 전용 콘텐츠 라이선싱 솔루션”이 포함됩니다.

Publishers Weekly이 발표를 다루었습니다. 여기서 CCC의 회장 겸 CEO인 Tracey Armstrong는 “AI와 저작권을 지지하는 것이 가능하며, 창작자를 존중하면서 AI를 결합할 수 있다“고 말했습니다.

포괄적이지는 않지만, 이는 출판을 대형 언어 모델 개발자와 협력하는 방향으로 한 걸음 더 나아가게 하는 돌파구일 가능성이 있습니다.

AI를 피하기에는 너무 늦었다

An icon of a key

AI에 더럽혀지기를 원하지 않는 저자와 출판사에게는 나쁜 소식입니다: 당신은 오늘 AI를 사용하고 있으며, 이미 수년간 사용해 왔습니다.

인공지능은 다양한 형태로 이미 우리가 매일 사용하는 대부분의 소프트웨어 도구와 서비스에 통합되어 있습니다. 사람들은 Microsoft Word나 Gmail과 같은 프로그램에서 AI 기반의 맞춤법 및 문법 검사에 의존합니다. Microsoft Word와 PowerPoint는 AI를 적용하여 작성 제안, 디자인 및 레이아웃 추천 등을 제공합니다. Siri와 Alexa 같은 가상 비서는 자연어 처리를 사용하여 음성 명령을 이해하고 질문에 응답합니다. 이메일 서비스는 AI를 활용하여 메시지를 필터링하고, 스팸을 감지하며, 알림을 보냅니다. AI는 고객 서비스 챗봇을 구동하고 구매 내역을 기반으로 제품 추천을 생성합니다.

이 중 대부분은 ChatGPT와 같이 대형 언어 모델을 기반으로 합니다.

저자나 편집자가 “내 원고에 AI를 사용하지 말라“고 말하는 것은, 전반적으로, 그들과 그들의 편집자가 타자기와 연필을 사용하지 않는 한, 사실상 불가능합니다.

그들은 “생성형 AI를 사용하지 말라“고 시도해볼 수는 있습니다. 하지만 이는 쉽게 해결될 문제가 아닙니다. 문법 검사 소프트웨어는 원래 생성형 AI를 기반으로 만들어지지 않았습니다. Grammarly는 생성형 AI를 제품에 추가했으며, 다른 모든 맞춤법 및 문법 검사기도 마찬가지일 것입니다. 생성형 AI는 또한 제공되는 마케팅 소프트웨어의 핵심 요소입니다.

저자가 AI를 사용할 때

저자와 AI 사용의 또 다른 측면은 위에서 논의된 저작권 문제와 유사합니다. 극단적으로, 우리는 100% AI가 생성한 콘텐츠가 Amazon에 게시되고 있는 것을 보고 있습니다. 대부분 (모두?)은 품질이 형편없지만, 이는 게시되는 것을 막지는 못합니다. (아마존 섹션도 참조하십시오.) 출판사에게 더 우려되는 것은 AI가 생성한 제출물입니다. 예, AI는 양을 증가시키지만, 대형 출판사는 이미 양을 필터링하는 시스템을 갖추고 있습니다. 그 필터는 에이전트라고 불립니다. 그들이 양 문제를 다루는 방법을 찾아야 하며, AI를 사용하지 않는 해결책을 찾아야 할 것 같습니다.

이것은 일종의 실존적 문제입니다—’기계’가 쓴 책을 출판하고 싶은가요? 대부분의 출판사들에게는 그것이 명백한 ’아니오’입니다. 매우 쉽죠. 그렇다면 유능한 저자의 감독 하에 LLM이 생성한 내용이 50%인 책은 어떨까요? 음, 그것도 ’아니오’로 해보죠. 그렇다면 25%, 10%, 혹은 5%는 어떨까요? 어디에 선을 그어야 할까요?

그리고 이제 선을 긋는 일에 들어서게 되면, 철자 및 문법 도구가 이제는 적어도 부분적으로 생성적 AI에 의존하고 있다는 딜레마를 어떻게 해결할 것인가요? Otter.ai와 같은 AI 기반 전사 도구나 Microsoft Word에 내장된 전사 기능은 어떻게 하죠?

AI 생성 텍스트의 사전 지정된 양을 포함한 작품을 출판하지 않겠다고 선언한 출판사는 찾을 수 없습니다. 다음은 저자 길드의 의견입니다:

“만약 원고에 상당한 양의 AI 생성 텍스트, 캐릭터 또는 플롯이 포함되어 있다면, 출판사에게 이를 공개해야 하며 독자에게도 공개해야 합니다. 우리는 아이디어 생성이나 카피 편집을 위한 도구로서의 생성적 AI 사용을 공개할 필요는 없다고 생각합니다.”

말할 필요도 없이, ’상당한’이라는 것은 정의되지 않았습니다 (옥스퍼드는 이를 “눈에 띄거나 중요한 것으로 여겨질 만큼 큰“이라고 정의합니다), 그러나 게시물은 de minimis AI 생성 텍스트의 포함이 대부분의 출판 계약을 위반할 것이라고 설명합니다. 법적 용어로 de minimis는 정확히 지정되어 있지 않지만, 일반적으로 상당한 것과 거의 같은 의미를 가집니다.

글쓰기에서 AI를 감지할 수 있을까요?

저는 2024년 5월에 BISG 주최로 AI 감지에 관한 웨비나를 개최했습니다. 다시보기는 YouTube에서 온라인으로 볼 수 있습니다. Jane Friedman은 자신의 Hot Sheet 뉴스레터에서 웨비나에 대한 종합적인 글을 제공했습니다.

많은 저자들에게 AI의 유독성은 그들의 단어에서 멀리 떨어져 있어야 한다는 것을 의미합니다. 출판사는 특별한 부담을 안고 있습니다 - 그들은 텍스트를 만들지 않지만, 일단 출판되면 텍스트에 대한 상당한 의무를 지게 됩니다. 우리는 사회적 함의나 다른 작가의 말과 아이디어를 표절하는 것과 관련하여 인화성 책 주변에서 많은 다이너마이트가 터지는 것을 보았습니다. 이제 AI와 함께 우리는 출판 학교에서 설명되지 않은 새로운 윤리적 및 법적 문제 세트를 직면합니다.

일부는 학생들에 대해 걱정하는 것과 유사하게 보입니다. AI를 사용하는 것은 위키피디아 기사에서 베끼는 것과 마찬가지로 부정행위라고 생각합니다.

우리 웨비나 연사 중 한 명인 교육자 José Bowen은 학생들을 위한 공개 사항을 공유했습니다. 저자에게 사용하는 것과는 정확히 같지 않지만 AI 사용의 “위험 수준“을 보여줍니다.

학생들을 위한 템플릿 공개 계약

  • 나는 친구들, 도구, 기술, 또는 AI의 도움 없이 이 모든 작업을 혼자 했습니다.

  • 나는 초안을 작성했지만 친구/가족, AI 패러프레이즈/문법/표절 소프트웨어에 읽고 제안하도록 요청했습니다. 이 도움 후 다음과 같은 변경 사항을 만들었습니다:

    • 철자 및 문법 수정

    • 구조나 순서 변경

    • 전체 문장/단락 다시 쓰기

  • 문제에 막혀서 유의어 사전, 사전, 친구에게 전화, 도움 센터 방문, Chegg 또는 다른 솔루션 제공자를 사용했습니다.

  • 아이디어를 생성하기 위해 AI/친구/튜터를 사용했습니다.

  • 개요/초안을 작성하기 위해 도구/AI의 도움을 사용했습니다. (당신의 기여의 성격을 설명하십시오.)

출판사도 저자들을 위한 이와 같은 것을 초안 작성할 수 있습니다. 저자가 최상위 수준을 공개한다고 가정해 보겠습니다: AI를 광범위하게 사용했고, 그 결과를 편집했습니다. 그럼 어떻게 될까요? 원고를 자동으로 거절합니까? 그렇다면 왜 그렇죠?

그리고 그동안 주목하고 있다면, 저자가 Grammarly로 철자 검사를 하지도 않았다고 맹세한 원고가 사실은 90% AI에 의해 생성되었을 수 있다는 것을 알게 됩니다. AI 사용을 숨기는 데 능숙한 저자에 의해 말이죠.

그럼 다시 질문을 생각하게 됩니다. “왜 이 감지할 수 없는 것을 그렇게 필사적으로 감지하려고 하는가?”

부분적으로 AI가 생성한 텍스트의 저작권 보호 가능성에 대한 경고가 있습니다. 저작권 사무소는 100% AI가 생성한 텍스트(또는 음악, 이미지 등)에 대한 저작권 보호를 제공하지 않습니다. 하지만 50% AI가 생성한 텍스트는 어떨까요? 음, 우리는 저자가 생성한 50%만을 다룰 것입니다. 그리고 어느 절반인지를 어떻게 알 수 있을까요? 그건 나중에 다시 말씀드리겠습니다.

각 원고를 소프트웨어에 입력하여 텍스트 생성에 AI가 사용되었는지 여부를 알려주는 기능이 있다면 좋지 않을까요?

이 문제를 해결하는 유일한 방법은 AI 도구를 사용하는 것이겠지만, 더 중요한 질문은 그 소프트웨어가 (충분히) 정확할 것인지 여부입니다. 원고 작성에 AI가 사용되었는지 알려줄 수 있을까요? 그리고 실제로 AI가 사용되지 않았을 때 ’거짓 긍정’을 만들어내지 않을 것이라고 믿을 수 있을까요?

현재 이 문제를 해결하기 위해 시장에는 많은 소프트웨어가 나와 있습니다. 이 소프트웨어를 평가한 많은 학술 연구는 그 신뢰성에 의문을 제기합니다. AI 생성 텍스트가 걸러지지 않습니다. 더 나쁜 것은 AI가 생성하지 않은 텍스트가 오염된 것으로 잘못 표기되는 경우입니다.

하지만 출판사들은 어떤 종류의 안전 장치를 원할 것입니다. 최선의 경우, 이러한 도구는 가능한 문제를 경고할 수 있지만 항상 다시 확인해야 할 것입니다. 아마도 이는 다른 텍스트보다 더 신중하게 검토해야 할 텍스트를 경고하는 데 사용할 수 있을 것입니다. 이것이 효율성일까요?

진정한 효율성은 텍스트의 기원에 대한 우려를 넘어, 기존의 품질 기준을 유지하는 데서 찾을 수 있을 것입니다.

일자리 상실

“AI에 의해 대체되지 않을 것입니다. AI를 사용하는 사람에 의해 대체될 것입니다.” —익명

AI 도입으로 인한 일자리 상실은 심각할 수 있습니다. 추정치는 다양하지만, 숫자는 암울합니다. 명백한 예시가 있습니다: 샌프란시스코의 무인 택시는 택시 및 라이드셰어 운전자를 제거합니다. AI 지원 진단은 의료 기술자의 필요성을 줄일 수 있습니다.

낙관적인 면에서 보면, 예를 들어, 스프레드시트 도입과 그것이 고용에 미친 영향을 들 수 있습니다. 아래 차트에서 볼 수 있듯이, “회계, 세무 준비, 부기 및 급여 서비스” 분야의 고용은 1990년 이후 거의 두 배로 증가했습니다. 이는 주로 이러한 작업을 자동화한 스프레드시트와 기타 기술에 대한 비판으로 볼 수 없습니다.

1990년부터 2020년까지 회계, 세무 준비, 부기 및 급여 서비스 분야의 직원 수를 보여주는 선 그래프.

Ethan Mollick의 Boston Consulting Group(BCG)과의 연구는 AI가 일에 미치는 영향을 더 잘 이해하기 위한 실험이었습니다. 특히 복잡하고 지식 집약적인 작업에 대해 말입니다. 이 연구는 758명의 BCG 컨설턴트가 두 가지 작업(창의적인 제품 혁신 및 비즈니스 문제 해결)을 위해 OpenAI의 GPT-4를 사용할지 여부를 무작위로 배정하여 수행되었습니다. 연구는 참가자들의 성과, 행동 및 태도와 AI 출력의 품질 및 특성을 측정했습니다.

발견 중 하나는 “AI는 기술 수준을 평준화합니다. 실험 시작 시 평가에서 최악의 점수를 받은 컨설턴트들이 AI를 사용할 때 성과가 43%나 증가했습니다. 최고 점수를 받은 컨설턴트들도 향상되었지만, 그 정도는 덜했습니다.” 전체 기사는 매우 흥미롭고, Mollick의 모든 작업처럼 도발적이면서도 접근하기 쉽습니다.

교육

교육은 AI에 대한 찬반 논쟁의 중심에 있습니다. 교실에 AI를 도입하는 것은 대체로 저주 또는 최소한 도전으로 여겨집니다. 다른 교육자들, 예를 들어 PW의 기조연설자 Ethan Mollick은 AI를 교육자에게 놀라운 새로운 도구로 받아들입니다. Mollick은 그의 학생들이 ChatGPT를 사용하도록 요구합니다.

이 주제에 관한 최고의 책은 José Antonio Bowen과 C. Edward Watson이 쓴 Teaching with AI: 새로운 인간 학습 시대를 위한 실용 가이드입니다.

이 책에서는 교육 출판에 대해 깊이 다루지 않을 것입니다. 이는 방대한 주제이며 별도의 보고서가 필요합니다. 아마도 출판은 교육 내에서 부차적인 관심사가 되고 있습니다. AI 도구는 소프트웨어이지, 콘텐츠 자체가 아닙니다.

검색의 미래

An icon of a key

검색은 AI에서 다루기 어려운 주제입니다. perplexity.aiYou.com을 방문하여 상황이 어떻게 진행되고 있는지 엿볼 것을 권장합니다. 다음 몇 번 Google 검색을 시작하려고 할 때 대신 Perplexity를 방문해 보세요. 극적으로 다르지는 않을 것입니다. Google이 종종 검색 화면의 오른쪽에 표시하는 지식 그래프나 때로는 검색 결과 목록 상단에 표시하는 것과 유사합니다. 링크를 클릭할 필요 없이 정보가 바로 거기에 있습니다.

Perplexity는 여러 출처에서 수집한 정보를 재구성하여 정말로 링크를 클릭할 필요가 없도록 한 단계 더 나아갑니다. 출처에 대한 링크를 제공하지만, 클릭할 필요는 거의 없습니다. 이미 질문에 대한 답을 얻었기 때문입니다.

이 겉보기에는 미미한 변화가 검색 엔진을 통해 발견되는 것에 의존하는 모든 기업과 제품에 엄청난 영향을 미칩니다. 검색자가 더 이상 귀하의 사이트로 이동하지 않는다면, 어떻게 그들과 교류하고 고객으로 전환할 수 있을까요? 간단한 대답은, 할 수 없다는 것입니다.

Joanna Penn은 글쓰기와 출판에 대한 새로운 기술의 영향을 생각하는 최전선에 있습니다. 그녀는 이 복잡한 주제를 지난 12월 그녀의 팟캐스트와 블로그에서 다루었습니다.

AI와 검색의 변혁은 아직 초기 단계에 있습니다.

아마존의 쓰레기 책들

An icon of a key

아마존에서 AI 생성 쓰레기 책들은 문제입니다. 그 심각성은 말 그대로보다는 감정적으로 더 클 수 있습니다. 한편으로는 이 책들이 저급하고 표절된 콘텐츠로 온라인 서점을 스팸으로 도배하고 있으며, 때로는 실제 저자의 이름을 사용하여 고객을 속이고 그들의 명성을 이용합니다. 이 책들은 독자들에게 성가신 존재일 뿐만 아니라 저자들에게도 위협이 되어 어렵게 얻은 로열티를 빼앗길 수 있습니다. AI 생성 도서들은 아마존 사이트에서 진짜 책들과 저자들의 순위와 가시성에도 영향을 미치며, 동일한 키워드, 카테고리, 리뷰를 놓고 경쟁합니다.

해변에 꽃이 있는 가운데 앉아 있는 귀여운 새끼 고양이와 '세상에서 볼 수 없는 재미있고 귀여운 고양이 사진'이라는 캡션

아마존은 이제 저자들에게 책을 만들 때 AI를 사용한 세부 사항을 공개할 것을 요구하고 있습니다. 이것이 남용될 수 있다는 것은 의심의 여지가 없습니다.

아마존에서 “AI 생성 도서“를 검색해 보세요. 많은 결과가 나옵니다. 일부 결과는 책을 만드는 데 AI를 사용하는 방법에 대한 설명서입니다. 하지만 다른 일부는 솔직히 AI가 생성한 도서입니다. “재미있고 귀여운 고양이 이미지-세상에서는 볼 수 없는 이런 사진들-파트-1”(stet)는 Rajasekar Kasi에게 크레딧이 주어졌습니다. 저자 페이지에는 그의(?) 전기 세부 사항이 없지만, 같은 이름으로 여섯 권의 다른 책이 있습니다. 2023년 8월 26일에 출판된 이 책은 리뷰도 없고 판매 순위도 없습니다. 전자책의 비문법적 제목은 인쇄본 책의 비문법적 제목과 일치하지 않습니다.

하지만 다른 저자들은 명백히 그들의 책을 만드는 데 AI를 광범위하게 사용하고 있으며 이를 공개하지 않고 있습니다. 내가 위에서 논의했듯이, 숙련된 ’위조자’를 사용한 AI 사용을 감지하는 것은 거의 불가능합니다. 색칠책, 일기, 여행 책 및 요리책은 전통적인 출판의 시간과 노력의 일부만으로 AI 도구를 사용하여 생성되고 있습니다.

“한국 비건 요리책“을 검색해 보면, Joanne Lee Molinaro가 작성한 1위 제목이 나옵니다. 하지만 그 바로 뒤에는 명백한 표절 제목들이 있습니다. “The Korean Vegan Cookbook: Simple and Delicious Traditional and Modern Recipes for Korean Cuisine Lovers“는 리뷰가 두 개 있으며, 그 중 하나는 “이것은 비건 요리책이 아닙니다. 모든 레시피에 고기와 계란 재료가 들어 있습니다.“라고 적혀 있습니다. 하지만 이 책의 판매 순위는 #5,869,771이며, 원본은 리스트에서 #2,852에 위치해 있습니다.

피해의 정도를 파악하기는 어렵습니다. 이로 인해 좋은 일이 생길 수는 없지만, 얼마나 나쁠까요?

아마존은 “긍정적인 고객 경험을 제공하지 않는” 책을 제거할 수 있는 정책을 가지고 있습니다. 킨들 콘텐츠 가이드라인은 “고객을 오도하거나 책의 내용을 정확하게 나타내지 않는 설명 내용을” 금지합니다. 또한 “고객에게 실망스러운 콘텐츠“도 차단할 수 있습니다. 아마존의 감시자들을 압도하는 것은 순전히 양 때문인가요? 아니면 다른 이유가 있을까요?

편견

LLM은 이미 온라인에 게시된 내용을 학습합니다. 온라인에 게시된 것은 편견으로 가득 차 있으며, 따라서 LLM도 그 편견을 반영합니다. 그리고 물론 편견뿐만 아니라 증오도 학습 내용에 반영되며, 이제 AI 생성 단어와 이미지에서 잠재적인 출력으로 나타날 수 있습니다. 포르노는 이미지에 대한 AI의 놀라운 능력의 또 다른 자연스러운 수혜자이며, 최근에는 젊은 여성이 조작된 누드 이미지를 발견하는 불안한 이야기들이 있습니다. 뉴욕 타임스는 온라인 아동 성적 학대 이미지의 증가에 대해 별도로 보도했습니다.

저자와 출판사는 AI 도구를 사용할 때 이러한 내재된 한계를 인식해야 합니다.