ChatGPT와 같은 AI 기반 챗봇에 대한 모든 관심에도 불구하고, 텍스트 기반 도구들은 여전히 해결해야 할 심각한 문제들이 있습니다.
그 중 하나는 질문에 대한 답을 모를 때 사실과 다르게 내용을 창조하여 제시하는 경향이 있는데, 이러한 현상은 "환각 hallucinating"이라고 알려져 있습니다. 상상하실 수 있듯이, 강력한 최신 챗봇을 사용하는 사람에게 거짓된 내용을 사실로 제시하는 것은 심각한 결과를 초래할 수 있습니다.
OpenAI 엔지니어들은 챗봇 기술을 더 신뢰할 수 있도록 하기 위해 소프트웨어를 개선하는 데 초점을 맞추고 있다고 공개했습니다. 이러한 문제가 발생하는 것을 줄이고, 가능한 경우에는 완전히 없애는 것을 목표로 하고 있습니다.
OpenAI는 수요일에 발표한 연구 논문에서, CNBC가 보도한 바에 따르면 챗봇은 "불확실한 순간에 사실을 창조하는 경향"을 보인다고 언급했습니다.* 이러한 환각은 특히 다단계 추론을 필요로 하는 분야에서 문제가 발생합니다. 하나의 논리적 오류만으로도 큰 문제 해결이 무너질 수 있습니다.
챗봇의 실수에 대처하기 위해 OpenAI의 엔지니어들은 AI 모델이 답으로 향하는 과정에서 올바른 데이터를 출력할 경우에 자기 자신에게 보상을 주도록 하는 방법을 연구하고 있습니다. 이러한 방식은 단순히 결론 지점에서 보상을 받는 것이 아니라 답을 찾아가는 과정에서 보상을 주는 것입니다. 엔지니어들에 따르면, 이 시스템은 보다 인간과 유사한 사고 과정을 통합함으로써 더 나은 결과를 이끌어낼 수 있을 것입니다.
하지만 일부 전문가들은 이 연구에 대해 의문을 표명하며 CNBC에 말했습니다. 그들은 이 연구가 ChatGPT에 통합되기 전까지는 그다지 유용하지 않다고 말했으며, 그동안 ChatGPT는 여전히 환각을 일으킬 것이라고 언급했습니다. OpenAI는 언제 연구 결과를 생성 AI 도구에 통합할지에 대해 밝히지 않았습니다.
'임프레션' 카테고리의 다른 글
MS 윈도우 11용 그림판에 다크 모드 도입 (0) | 2023.06.11 |
---|---|
Mark Zuckerberg, 인스타그램을 통해 메타퀘스트3 사전공개 (0) | 2023.06.11 |
무너져가는 태블릿 시장을 지탱하고 있는 Apple의 아이패드 (0) | 2023.06.10 |
Apple, 썬더볼트 디스플레이와 오리지널 아이패드 에어 단종 제품 목록에 추가 (0) | 2023.06.08 |
OpenAI, 향후 규제를 준수하지 못하면 EU에서 '운영 중단'할 수 있어 (3) | 2023.06.08 |
댓글