기사 제목
‘그녀 목소리’ 스칼릿 조핸슨 분노…GPT-4o 음성 서비스 중단
기사 링크
https://m.yna.co.kr/view/AKR20240521139800704?section=search/news
기사요약(3문장 이상)
chatGPT의 개발사, openAI가 개발한 새 인공지능 모델인 GPT-4o가 배우 ‘스칼렛 요한슨’의 목소리를 모방했다는 논란에 휩싸였다. 배우 스칼렛 요한슨은 해당 인공지능의 목소리를 듣고 친한 친구들과 미디어조차 구분하지 못할 정도로 자신의 목소리와 흡사하다는것을 알고는 충격과 분노를 느꼈다. 스칼렛 요한슨은 openAI CEO가 두 차례나 목소리 사용을 제안했으나 거절했다. 그런데도 자신과 흡사한 목소리를 사용했다고 주장한다. 이에 openAI측은 요한슨을 모방한게 아닌 자기 자신의 말투를 사용하는 다른 전문 배우의 목소리라며 반박했다.
결론 포함 자신의 의견 작성
이 사건은 인공지능 개발에 있어 AI 자체의 문제만 생각할것이 아닌, AI를 만들고, 소유한 인간들의 문제또한 생각해야함을 일깨워준다. 일반적으로는 인공지능과 관한 윤리/사회적 문제에 있어 인공지능이 도덕적 판단을 할 수 있는가, 혹은 인공지능이 인격을 가질 수 있는가처럼 인공지능 그 자체에서 발생할수 있는 문제들에만 초점을 맞춰오곤 했다. 그런데 이번 사건이 발생함에 따라 인공지능을 둘러싼 문제중 인공지능을 제작하고 소유하는 인간의 윤리적인 의식이 부족하다면 인공지능 그 자체의 문제만큼 심각한 일이 발생할 가능성이 있다는것을 시사한다. 인공지능 그 자체를 아무리 완전하고 깨끗하게 만든다한들 사용하는 인간이 그렇지 못하다면 인공지능은 필연적으로 비윤리적인 일을 저지르게 된다. 인공지능이 나날이 발전함에 따라 인공지능의 중대성은 점점 커져가는데, 그 과정에서 윤리적인 의식이 부족한 인간이 인공지능을 이용해 사회에 해가 되는 행동을 할 가능성을 생각하게 한다. 이번 사건은 목소리의 사용에 관한 문제라 비교적 피해가 크지 않지만, 만약 군사용 인공지능같은 위험한 인공지능을 비윤리적인 목적으로 사용한다면 생길 막대한 피해를 생각하면 미래의 가능성을 생각할때 결코 작은 사건이 아니라 할수있다. 이런 사건을 방지하기 위해서 기존부터 인공지능을 사용하던중 문제 소지가 있다면 강제로 차단하거나, 사용자를 차단하기도 하지만, 이번 사건은 인공지능을 만드는 인간의 문제였기에 추가적인 방지책, 인공지능 제작의 요건을 따지는등의 방법이 필요할수있다. 다만 이런 규제가 생길 경우 인공지능의 발전을 저해해 곧 인간의 발전 속도또한 저해될수 있다. 그러니 적절한 규제와 또 적절한 지원을 통해 균형을 유지하며 건강한 사회를 만들고 미래를 도모하는 참된 인류 사회를 만들수 있다.