제네레이티브 AI는 일반 소비자들 사이에서 꽤 인기가 있지만, 기업에서의 사용은 아직 제한적입니다, 그 이유 중 하나는 제네레이티브 AI가 가끔 유해한 정보, 부정확한 정보 또는 상상의 정보를 제시하는 "Hallucination" 흔히 말하는 거짓말 한다는 점입니다. 이런 문제는 단지 특정 도구에만 국한되는 것이 아니라, ChatGPT와 Google Bard를 포함한 여러 AI에서도 발생하고 있습니다.. Fortune에서 구글의 CEO 썬더 피차이가 이 환각 증상이 왜 여전히 발생하는지 정확한 이유를 모르겠다고 말한 것이 보도되기도 했었습니다. 그런데 이런 문제는 개발자들에게도 원인을 찾기 어렵고 고민을 주는 상황입니다. 어려운 이유는 여러 층의 딥러닝 구조로 되어 있어 인과관계 분석이 어렵기 때문입니다. 이해하기 쉬운 예시로 설명하자면, AI는 질문에 답변을 해 줄 때 때로는 잘못된 정보나 상상 속의 이야기를 전달할 수 있습니다. 이를 해결하기 위해 연구자들이 열심히 노력하고 있지만, 완전한 해결책을 찾기까지는 아직 시간이 걸릴 것 같습니다. 지금까지 나온 설명가능한 AI(XAI) 기술은 아직 초거대 AI 기반의 생성 AI를 따라가기에 어렵기 때문입니다. 그리고 이러한 부분들 때문에 기업들은 아직 조심스럽게 사용하고 있습니다.
Hallucination 사례
지금까지 생성 AI를 탑재한 챗봇에 관한 여러 Hallucination 사례가 보고되고 있습니다. 예를 들어 ChatGPT의 경우 다음과 같은 사례가 있었습니다. 3월 22일에 발표된 기사에서는, 한 사용자가 ChatGPT에게 "레오나르 다빈치는 언제 모나리자를 그렸을까요?"라고 물었을 때, "레오나르도 다빈치는 1815년에 모나리자를 그렸어요."라는 잘못된 답변을 받았습니다. 실제로 모나리자는 1503~1506년 사이에 그린 것으로 알려져 있기 때문입니다. 하지만 이후에 개선된 GPT 3.5를 사용해 동일한 질문을 했을 때 개선된 것을 확인할 수 있었습니다. 또 다른 생성 AI 챗봇의 경우 존재하지 않는 책을 언급하기도 했습니다. 현재 초거대 AI 모델은 여전히 부정확한 정보를 제공하는 문제가 있습니다. 하지만 연구자들은 지속적으로 이러한 문제를 개선을 위해 노력하고 있습니다.
엔비디아의 Hallucination 방지를 위한 솔루션 발표
최근에 엔비디아에서 문제가 불거지는 인공지능의 거짓말 문제를 해결하기 위한 'NeMo Guardrails'이라는 새로운 소프트웨어를 발표했습니다. 이 소프트웨어는 ChatGPT와 같은 채팅 AI가 잘못된 정보나 가짜 정보, 유해한 정보를 제공하는 것을 방지하기 위해 만들어졌습니다. AI가 부적절한 정보를 제공하는 것을 막는 것을 목적으로 한 기능을 탑재했습니다. 예를 들어, NeMo Guardrails는 특정 주제로 이야기를 제한하거나 해로운 내용을 피하도록 도와줍니다. 또한 컴퓨터가 해로운 명령을 실행하지 못하게 막아줄 수도 있습니다. NVIDIA의 연구원 조나단 코엔은 이 가드레일 기능을 사용하여 고객 서비스나 기업 내 채팅 AI에도 적용할 수 있다고 발표했습니다. 예를 들면, 고객 서비스를 담당하는 AI는 가드레일을 설치함으로써 주제를 벗어나지 않도록 유도하고, 잘못된 정보나 유해한 반응, 경쟁 제품에 대한 언급 등을 방지할 수 있다고 합니다. 기업 내 채팅 AI에서는 인사 데이터, 재무 데이터, 다른 사원에 관한 정보를 누설하지 않도록 설정도 가능하다고 하였습니다. 또한 NeMo Guardrails는 여러 대규모 언어 모델의 대답을 비교하여 팩트 체크를 실시할 수 있어서, 만약 두 모델의 대답이 다르다면, '모르겠습니다.'라고 세팅되어 있습니다.
엔비디아가 발표한 솔루션으로 기업에서 생성 AI를 활용할 수 있는 계기가 될 수 있을 것이라 봅니다. 하지만 적대적 프롬프트 문제도 해결이 선행되어야 할 것입니다.
2023.05.20 - [최신IT 정보/초거대AI] - 초거대AI를 괴롭히는 적대적 프롬프팅에 대해 알고계신가요?
초거대AI를 괴롭히는 적대적 프롬프팅에 대해 알고계신가요?
초거대 AI는 Prompt와 밀접한 관계가 있음은 이전부터 계속 설명해 왔습니다. 어떤 prompt를 기반으로 학습하고 튜닝했느냐에 따라 모델의 성능을 좌지우지 하게 됩니다. 초거대 AI를 개발하는데 있
cool21th.com
2023.05.19 - [최신IT 정보/초거대AI] - 자동코드생성 툴 Copilot 의 전체 프롬프트 유출되었다고?
자동코드생성 툴 Copilot 의 전체 프롬프트 유출되었다고?
요즘 개발자는 Jetbrain이나 VSCode로 코딩을 Copilot으로 도움을 많이 받습니다. 물론 저도 많은 도움을 받고 있었습니다. 트위터 prompt 유출 최근 트위터를 통해서, Copilot beta 버전의 전체 프롬프트가
cool21th.com
'최신IT 정보' 카테고리의 다른 글
엘런 머스크 XAI 회사로 챗GPT의 OpenAI에 승부수 (0) | 2023.05.28 |
---|---|
챗GPT Apple Appstore 공식지원 (0) | 2023.05.27 |
[젤다의 전설: 티어즈 오브 더 킹덤] 체온 조절 가능한 루비 (0) | 2023.05.27 |