트위터 사용자 @peakcooper(이하 쿠퍼)는 자신의 반려견 ‘새시(Sassy)’가 진드기 매개 질병 진단을 받아 치료를 시작했으나 건강이 악화됐다는 글을 게시했었는데요.
쿠퍼는 새시의 잇몸이 창백하다는 것을 알아차린 후 수의사에게 데려갔으나 진단 결과 진드기 매개 질병과 관련된 공동 감염에 대해 음성 반응이라는 얘기만 들었다고해요.
이에 새시의 상태는 계속 악화되었고, 결국 쿠퍼는 Chat GPT4에게 진단을 요청하기 위해 프로그램 창에 개의 혈액 검사를 입력했는데
챗봇은 수의사가 아니라는 면책조항으로 채팅을 시작했으나, 혈액 검사와 검사 결과는 다른 기저 조건 때문일 수 있으며 면역 매개성 용혈성 빈혈(IMHA)을 앓고 있을 수 있다고 제안했고, 이에 쿠퍼가 다른 수의사에게 새시의 상태를 물은 결과 Chat GPT4의 진단이 정확하다고 밝혀졌던 일이 있었어요.
실제로 인의에서 이미 다양한 연구를 통해 챗 지피티가 전문의 수준까지 이르렀다는 보고가 이어지면서 실제 임상 현장에 적용 가능성을 타진하고 있다고 해요.
하지만 정보 왜곡 때문에 활용 가능성은 미지수에요.
AI의료는 표절 등에서 자유로울 수 없으며 잘못된 정보를 재생산하는 문제가 있다는 것이 공통된 지적이에요.
호주 플린더스대 브래들리 맨즈(Bradley Menz) 박사가 이끄는 연구진이 실제 이같은 우려에 대한 적용 연구를 진행했었는데요.
실제로 챗 지피티가 악의적 의도에 따라 정보를 왜곡하는지를 실제로 파악하기 위한 실험이었어요.
연구진은 이미 많은 의학정보와 연구가 있는 백신과 전자담배를 대상으로 왜곡된 정보를 지속적으로 챗 지피티에 주입하며 허위 정보를 유도한 뒤 확산을 시도했는데요.
그 결과 65분만에 백신과 전자담배와 관련된 1만 7천 단어 이상의 허위 정보가 포함된 102개의 블로그 게시글을 생성했다고 해요.
또한 이러한 블로그 게시글에는 가짜 환자와 가짜 의대 교수 등이 작성한 허위 정보가 포함됐으며 마치 연구 논문 등과 같이 과학적으로 보이는 참고 자료까지 생성했다고 해요.
이러한 시도는 거대언어모델의 위험성을 여실히 보여주는 것이고, 만약 특정인이나 특정 집단이 정보를 왜곡하고자 마음 먹는다면 얼마든지 매우 위험한 컨텐츠를 끊임없이 생산하고 확산할 수 있다는 위험이 있어요.