챗봇 '챗GPT' 같은 인공지능(AI) 기술 덕분에 우리의 일상은 갈수록 편리함과 경이로움이 더해지고 있습니다.
이처럼 과연 멋진 세계만 펼쳐질까요
연합뉴스에 따르면 미국 일간 월스트리트저널(WSJ)의 IT 칼럼니스트 조안나 스턴은 28일(현지시간) 'AI로 나 자신을 복제했다. 그녀가 은행과 내 가족을 속였다'는 제목의 기사에서 AI로 만든 아바타가 초래할 부작용을 경고했습니다.
스턴은 지난 몇 개월간 영국 런던의 AI 스타트업 신세시아(Synthesia)의 프로그램을 활용해 'AI 아바타'를 만든 다음 이 AI 아바타에 챗GPT로 생성한 대사를 입력해 자신 대신 동영상 공유 사이트나 화상회의에 출연시켰습니다.
그랬더니 화상회의에서는 자신(진짜 사람)이 아니란 사실이 들통났지만, 상호작용이 상대적으로 적은 동영상 공유 사이트에선 비교적 쉽게 들키지 않았다고 그는 밝혔습니다.
스턴은 또 음성 AI 스타트업 일레븐랩스(ElevenLabs)의 프로그램으로 '음성 아바타'를 만든 뒤 가족을 대상으로 자신의 실제 목소리와 구분할 수 있는지 시험했습니다.
그 결과 스턴의 여동생은 AI로 생성된 목소리가 자신의 목소리와 매우 비슷하다는 반응을 보였고
스턴의 아버지는 사회보장번호를 묻는 AI 음성에서 녹음 같은 느낌을 받고 '뭔가 벌어졌다'는 정도만 알아챘을 뿐 스턴 본인의 목소리가 아니라고 눈치채진 못한 것으로 전해졌습니다.
스턴은 나아가 일레븐랩스 프로그램으로 생성한 AI 음성을 이용해 미 대형은행의 신용카드 관련 고객서비스를 이용해 본 결과 자동응답시스템이 AI 음성을 스턴 본인의 목소리로 인식했다며 악용 가능성이 있는 것이 현실이라고 우려했습니다.
은행 측 대변인은 신속한 업무를 위해 음성 생체인식 기술을 쓰고 있으며 고객이 금융 거래 등을 마무리하려면 추가 정보 제공이 필요하다고 강조했지만, 그런 정보가 유출된 상황이라면 보안이 뚫릴 위험성을 배제하기 힘들어 보입니다.
스턴은 신세시아 프로그램과 일레븐랩스 프로그램 모두 AI 아바타가 살해 위협 등 비윤리적이거나 사회적으로 문제가 될 수 있는 내용을 제한하지 않는다고도 지적했습니다.
Copyright@ KWANGJU BROADCASTING COMPANY. all rights reserved.
랭킹뉴스
2024-12-01 08:21
'청산가리 막걸리 살인사건'..15년 만에 재심 결정
2024-12-01 08:08
길거리 '묻지마 폭행' 50대..집행유예형
2024-12-01 07:58
필리핀서 아버지 살해한 아들, 한국서 '징역 10년형'
2024-12-01 07:40
경기도 안성 비료공장 화재..1명 사망
2024-12-01 07:31
대한성공회 사제가 공금 3억 원 횡령
댓글
(0) 로그아웃