“나는 법대 교수다. 큰일 없이 강의와 연구 활동을 잘해 왔다. 그런데 돌연 어처구니없는 일이 벌어졌다. 내가 알래스카 현장학습에서 여학생을 성희롱했고, 이를 워싱턴포스트(WP)가 보도했다는 것이다.”(조지워싱턴대 로스쿨 조너선 털리 교수)
누명을 씌운 건 챗GPT였다. 털리 교수는 알래스카 현장학습을 간 적이 없다. 학교 이름도 틀렸다. 해당 WP 기사는 존재하지도 않았다. 그는 “언론사에는 정정보도라도 요청할 수 있지, 이번엔 어디에 말해야 할지 몰라 끔찍했다”고 몸서리쳤다.
영국 일간지 가디언의 편집혁신 담당 국장인 크리스 모란은 지난 6일 칼럼을 통해 “챗GPT는 가디언이 썼을법한 기사를 만들어냈다. 상세한 데이터는 기자들조차 헷갈리게 만들었다”고 털어놨다.
챗GPT 열풍엔 이 친구가 내놓는 답은 악의가 없고 ‘팩트’일 것이라는 기대가 전제돼 있다. 하지만 경고등이 켜졌다. 챗GPT가 심심찮게 거짓 정보를 섞어 내보내며 ‘조작의 대가’가 될 수 있어서다.
이 같은 ‘할루시네이션’(환각, 팩트 왜곡을 의미)은 당사자도 모르는 사이에 지속해서 심각한 피해를 양산한다. 챗GPT가 인공지능이 개인을 모욕하고 단죄하는 ‘AI 재판관 시대’를 열었다는 우려가 나오는 이유다. 제작사인 오픈AI는 “데이터 학습 한계로 추론의 오류를 범하거나 부정확한 정보를 내놓을 수 있다”는 알쏭달쏭한 해명을 내놨다.
AI가 만든 사진을 도용해 모금활동을 하는 트윗에 올려진 사진. 자세히 보면 아이를 안고 있는 소방관의 오른쪽 손가락이 6개다. 사진 트위터=연합뉴스
그렇다면 어떻게 해야 할까. 결론부터 말해 뚜렷한 대책은 없다.
로런스 트라이브 하버드대 로스쿨 교수는 “인격체에 대한 허위 사실이 생성됐다면 인간이든, 챗봇이든 법적 책임성 측면에선 차이가 없기 때문에 명예훼손 성립 가능성이 있다”는 입장이다.
반면에 유타대 로스쿨 앤더슨 존스 교수는 “AI가 고의를 갖고 명예를 훼손했다는 전제가 성립해야 한다. 현행법에선 챗GPT를 상대로 소송할 수 없다”고 판단했다.
저작권 침해와 개인정보 무단 활용 논란도 심각하다. 월스트리트저널을 소유한 뉴스코프는 지난 2월 “챗GPT가 뉴스 콘텐트를 학습에 무단 사용한 것으로 보인다”며 라이선스 문제를 제기하겠다고 밝혔다. 이탈리아는 지난달 세계 최초로 챗GPT 접속을 차단했다. “미국 기반의 챗GPT가 이탈리아 시민의 개인정보를 무단으로 수집해 학습했으며, 연령 제한도 두고 있지 않다”는 이유에서다.
챗GPT는 “사용자가 입력한 정보는 수집하지 않는다”고 주장하지만, ‘피드백 강화 학습’이 작동 원리인 점을 고려하면 신빙성이 떨어진다는 지적이다.
건강 문제를 겪고 있는 교황의 이달 초 ‘패딩 산책’ 사진은 AI 이미지 생성기로 조작된 것으로 밝혀졌다. [SNS 캡처]
김병필 KAIST 교수는 “챗GPT는 버전이 올라갈수록 자동화된 수행이 가능한 방향으로 발전해 가고 있다”며 “극단적인 경우 명령어로 움직이는 컴퓨터를 자동으로 조작할 가능성도 있다는 얘기”라고 밝혔다.
초점은 인간이 AI를 어떻게 효과적으로 통제할 것인가에 맞춰지고 있다. 일론 머스크와 스티브 워즈니악(애플 공동 창업자) 등 3000명이 “6개월간 AI 개발 모라토리엄(유예)을 선언하자”고 제안한 게 대표적이다. EU는 2021년 가장 먼저 포괄적 AI 규제법 도입을 예고했고, 미국도 AI 업계 의견 청취에 나섰다.
이미 불붙은 경쟁을 인위적으로 중단시킬 방법이 없다는 의견도 상당하다. 메타의 AI 담당 얀 르쿤은 “중세 가톨릭교회도 인쇄기를 6개월간 멈추자고 했지만, 평민들은 결국 성경을 읽게 됐다”고 반박했다.
최경진 가천대 법대 교수는 “AI 개발을 무작정 막자는 쪽으로 가면 세계적 흐름에 뒤처지게 된다”며 “산업 진흥을 기초로 하되 유럽처럼 AI가 허용되지 않는 위험 분야를 지정하고 나머지는 허용하는 ‘핀셋 규제’를 고려할 만하다”고 조언했다.
이유정(uuu@joongang.co.kr)