- 윤리정책법무팀
- 2025-04-08
- 23
- 기사제목[AI 프리즘] AI가 과학 연구에 강력한 도구가 될까? 오류를 양산할까?
- 언론사위키리크스한국
- 기자성명최정미
- 분야,키워드
- 링크주소
구글이 최근 과학자들을 위한 새로운 AI 시스템을 출시한다고 발표했다. 이 시스템은 과학자들이 새로운 가설과 연구 계획을 만드는 데 도움이 되도록 설계됐다고 했다.
이 AI 시스템이 과학자들에게 얼마나 유용할지 판단하기에는 너무 이르지만, 확실한 건 인공지능이 이미 과학계를 전반적으로 바꾸고 있다는 것이다.
지난 해, 인류에게 알려진 모든 단백질의 구조를 예측하는 AI 모델을 개발한 컴퓨터 과학자들이 노벨 화학상을 받았다. 노벨 위원회의 위원장 하이너 린케는 이 AI 시스템을 ‘50년 꿈의 달성’이라고 표현했다. 1970년대 이래 과학자들이 손에 잡지 못한 악명높은 어려운 문제를 해결했다는 것이다.
그러나 AI가 과학자들이 불가능하거나 수십 년이 걸릴 기술적 돌파를 가능하게 만드는 반면, 과학에 AI를 부정적으로 사용하는 어두운 면도 있다고 매체 컨버세이션의 논평이 지적했다.
학술 논문은 그 데이터나 연구 결과가 더 이상 유효하지 않거나 타당하지 않으면, 철회될 수 있다. 데이터 조작, 표절, 인간이 야기한 오류로 인해 이러한 일이 일어날 수 있다.
논문 철회는 2023년 10,000건을 넘을 정도로 폭발적으로 증가했다. 이렇게 철회된 논문들이 3만5,000회 이상 인용됐다고 논평은 말했다.
어느 연구에 따르면, 네덜란드 과학자의 8%가 심각한 연구 사기에 대해 인정했는데, 이는 이전에 보고된 비율의 두 배이다. 생물의학 논문 철회는 지난 20년 동안 4배 증가했는데, 대부분 부정적인 행위 때문이다.
그런데 AI가 이러한 문제를 더욱 악화시킬 가능성이 있다고 논평은 경고했다.
예를 들어, 챗GPT 같은 생성형 AI의 성능 향상은 연구의 조작을 쉽게 만든다. 두 연구원이 AI를 이용해 주식 수익률을 예측하는 완전한 가짜 논문 288편을 만든 것이 이를 확실히 보여주고 있다고 논평은 예를 들었다.
이는 무엇이 가능한지 보여주기 위한 실험이었지만, AI 기술이 허구의 임상실험 데이터를 생성하고, 불리한 결과를 은폐하거나 그 밖의 악의적인 목적으로 유전자 편집 실험 데이터 수정하는 데 사용될 수 있다는 것을 어렵지 않게 생각할 수 있다.
AI가 생성한 논문들이 동료 평가를 통과하고 공개 게재됐다가 후에 AI 사용을 밝히지 않았다는 이유로 철회된 사례들이 이미 많이 보고되고 있다. 일부는 가짜 참조 및 의도적인 데이터 조작 등 심각한 결함을 포함하고 있었다.
출처 : 위키리크스한국(http://www.wikileaks-kr.org)