LLM의 Risk는 총 4가지가 있다. Hallucination, Bias, Consent, Security.
오늘은 이러한 위험과 그 위험을 완화할 수 있는 전략을 알아보자
Risk 1 : Hallucination
LLM은 구문적(syntactic)으로 올바른 다음 단어를 예측한다.
즉, 사람의 질문을 이해해서 답을 생성하는 것이 아니다.
따라서, 듣기에는 그럴듯해보이지만 거짓말을 늘어놓는 경우가 발생한다.
이러한 잘못된 답변은 통계적 오류다.
예를 들어, “시 A, B, C를 쓴 사람이 누구야?” 라는 질문이 들어왔고 데이터 소스에 작품 A는 작가 X가, 작품 B는 작가 X가, 작품 C는 작가 Z가 작성했다라는 정보가 있다 하자.
이 경우 훈련 데이터에 상충되는 source가 있고 잘못된 답변을 생성하는 경우가 발생할 수 있다.
심지어 훈련 데이터에 불일치가 없더라도 통계적 오류가 발생할 수 있다.
이게 다 LLM이 의미를 이해하지 못하기 때문이다.
Strategy 1 : Explainability
Inline explainability를 제공할수도 있고 지식 그래프를 통해서 실제 데이터와 데이터 계보 및 출처를 제공하는 시스템을 LLM과 연동할 수 있다.
LLM이 방금 생성한 답변의 이유, 데이터의 출처 등..
LLM은 지식 그래프에서 제공한 답변에 대한 변형을 제공할 수 있다.
Risk 2 : Bias
시인에 대한 질문을 했을때 백인 | 남성 | 서유럽 시인만 나열되는 경우가 발생할 수 있다.
즉, 데이터가 편향되어있는 경우이다.
만약 조금 더 일반적인 경우를 원한다면 프롬프트에 “여성과 비서구 유럽인이 포함된 시인 목록을 알려줘”라고 해야 할 수 있다.
Strategy 2 : Culture and Audits
AI는 우리의 편견을 반영하는 훌륭한 거울이라 LLM에 문화를 다양하게 반영하려면 AI를 작업하는 팀도 다양한 배경과 분야에 걸친 인력이 필요하다.
AI 모델을 감사해서 이질적인 결과가 나오면 조직 문화를 바로잡을필요(?)가 있다.
사전 모델 배포와 사후 모델 배포를 감사한다.
Risk 3 : Consent
Curating 하는 데이터가 대표적인 데이터인지? 동의를 받고 수집되었는지? 저작권 문제는 없는지? 등을 살펴봐야한다.
위의 내용들은 찾기 쉬운 자료로 관리해야한다.
자주 LLM의 학습 데이터의 출처를 모르는 경우가 발생한다.
Strategy 3 : Accountability
AI 거버넌스 프로세스 확립, 기존 법률 및 규정 준수 확인, 사람들이 피드백을 통합할 수 있는 방법 제공해야 한다.
Risk 4 : Security
LLM은 모든 종류의 악의적인 작업에 사용 가능하다. 예를 들어 개인정보 유출, 피싱 범죄, 스팸, 사기 지원 등이 있다.
탈옥 : 해커들이 AI 모델로 원래 프로그램을 변경하거나 인종차별을 지지하고 사람들에게 불법적인 일을 하도록 제안하는 경우가 발생한다.
Indirect Prompt Injection : 제 3자가 웹사이트를 변경해서 숨겨진 데이터를 추가해서 AI의 동작을 변경하는 것이다.
따라서, AI에 의존하는 자동화는 사용자가 모르는 사이에 악의적인 지침을 보낼 수 있다.
Strategy 4 : Education
우리가 사용하는 기술의 강점과 약점을 알아야한다.
AI의 책임있는 큐레이션, 위험, 환경비용 및 기회 등에 대한 교육이 필요하다.
오늘날 일부 기술 회사는 LLM의 교육 데이터가 악의적으로 변조되지 않았다고 믿지만 사실은 Website를 사서 오염된 데이터로 채울 수 있고 충분한 예제로 데이터셋을 오염시킨다면 LLM의 동작과 출력에 영향을 미칠 수 있다.
Reference
'인공지능 > LLM' 카테고리의 다른 글
AGI로 가는 길에 LLM의 한계와 강화학습의 한계 (3) | 2024.11.02 |
---|---|
할루시네이션 발생 원인 (0) | 2024.11.02 |
Knowledge Distillation - LLM (0) | 2024.03.17 |
RAG란? (0) | 2024.03.17 |
챗봇 구현 실습 (4) - 챗봇 구현 (0) | 2024.03.17 |