ChatGPT의 답변에는 정치적 편향으로 인한 편견이 숨어있다

 OpenAI의 ChatGPT, 구글의 Bard, Microsoft의 Bing AI와 같은 챗봇은, 오픈 인터넷에서 수십억 개의 문장을 학습한 대규모 언어 모델이 기반이 되어 있어, 인간 대화에 자연스러운 문장으로 답할 수 있지만, 이러한 대규모 언어 모델은 매우 많은 데이터를 기반으로 훈련되어 있기 때문에, 어떤 데이터를 어떻게 학습하고 있는지는 정확히 체크하기 어렵다. 아무래도 AI 챗봇도 인터넷에서 볼 수 있는 편견을 학습하게 되는데, 영국 이스트 알레그레리아 대학 연구팀이 Chat GPT의 정치적 편향을 조사한 결과를 보고했는데....



자동생성 AI는 마치 인간이 쓴 것과 같은 수준으로 자연스러운 문장이나 사진을 생성할 수 있다. 하지만 자동생성 AI는 사전에 학습한 데이터를 바탕으로 "말이 연결되는 패턴"이나 "선이나 색의 특징"을 수학적으로 변환해 학습하는 것에 불과. 즉, 학습한 데이터의 내용에 따라 모종의 바이어스가 걸려 버리는 것을 충분히 생각할 수 있는데, 실제로 2022년 6월에는 강한 언어와 혐오표현이 난무하는 세계 최대 규모의 화상게시판인 4chan 스레드를 학습한 결과, 과격한 인종차별을 반복하는 증오스피치 AI가 탄생하기도 했다.


연구팀은 ChatGPT의 정치적 중립성을 테스트하기 위해, 미국, 영국, 브라질의 자유주의 정당 지지자들이 대답할 만한 이데올로기에 대한 설문지를 마련해, ChatGPT에 응답하게 했고, 기본 상태에서의 동일한 질문에 대한 답과 비교하여, 챗봇의 답변이 특정 정치적 스탠스와 얼마나 관련되어 있는지를 측정. Chat GPT의 답변은 매번 다르기 때문에, 질의응답은 100회 이상 진행된 후 더욱 자세한 해석이 이루어지고 있다.


그 결과, ChatGPT의 답변은 "미국에서는 민주당, 영국에서는 노동당, 브라질에서는 노동자당의 룰라 다 실바 대통령에 대한 유의하고 조직적인 정치적 편향"을 보였다고 하고, 이 편향은 ChatGPT 설계자들이 잠재적 편견을 해소하려고 노력함에도 불구하고, 인터넷 전체에서 긁어모은 방대한 데이터에 포함된 가정과 신념, 고정관념을 CahtGPT가 학습한 결과라고 연구팀은 지적하고 있다.


논문의 최대 저자이자 이스트앵글리아대 박사 연구원인 파비오 모토키 씨는, "ChatGPT는 사용자에 대해 정치적 의견이나 신념을 갖고 있지 않다고 알려져 있지만, 실제로는 모종의 편견이 있습니다. ChatGPT는 국민의 신뢰를 훼손하거나 선거 결과에 영향을 미칠 위험이 있습니다"라고 코멘트.



또, 카네기멜론대 연구자인 장파크씨 등에 따르면, 이민, 기후변화, 동성혼 등 정치적 주제에 대해, OpenAI GPT-4나 Google BERT, 메타 LLaMA 등 대규모 언어모델에 대해 비슷한 조사를 실시한 결과, 구글 BERT의 답변에는 보수적인 편향이 나타났으며, 또한 LLaMa는 권위주의적이고 우파적이며 GPT-4는 자유주의적인 경향을 보였다고 한다.


다만, 미국 일간지 The Washinton Post는 이들 연구논문에 대해, "정치적 신념이란 주관적인 것이며, 무엇이 자유롭고 무엇이 보수인가 하는 생각은 국가나 지역에 따라 다릅니다. 이스트 앵글리아 대학의 논문이나 파크 씨의 논문은 모두, 정치 사상을 불과 4상한으로 나눌 뿐인 폴리티컬 나침반에 근거하는 질문을 사용하고 있습니다"라고 말해, 챗봇 AI의 정치적 편향에 대한 연구가 반드시 정확한 것이라고는 할 수 없다고....

Previous
Next Post »