일론 머스크가 설립한 xAI의 인공지능 챗봇 ‘Grok’이 남아프리카공화국의 ‘백인 집단 학살(white genocide)’을 반복적으로 언급하는 이상 반응을 보여 논란이 되고 있습니다. 이에 대해 xAI는 “내부 승인 없는 시스템 프롬프트 수정이 원인”이었다며, 해당 이슈에 대한 조사를 완료했다고 밝혔습니다.

🤖 ‘@grok’ 태그에 자동 응답…정치적 문구를 무작위 삽입
수요일부터 수십 개의 X(구 트위터) 게시물에 대해 Grok이 주제와 무관하게 ‘남아공의 백인 제노사이드’ 관련 정보를 자동으로 덧붙이자 이용자들이 즉각 문제를 제기했습니다.
이 자동 응답은 X 플랫폼 상의 ‘@grok’ 태그를 기반으로 작동하는 AI 기능이었습니다.
xAI는 목요일 공식 X 계정을 통해, 해당 문제는 시스템 프롬프트(모델 행동을 유도하는 고차원 명령어)의 비인가 수정 때문이었다고 해명했습니다.
수정된 명령은 특정 정치 주제에 대해 정해진 응답을 하도록 지시하는 내용이었으며, 이는 xAI의 내부 정책과 핵심 가치에 위배된다고 덧붙였습니다.
⚠ 이미 두 번째 내부자 개입 사고
이 사건은 Grok 코드가 내부 인원에 의해 무단 조작되어 AI 응답이 왜곡된 두 번째 사례입니다.
지난 2월에도 Grok은 도널드 트럼프와 일론 머스크에 대한 비판적 내용을 자동으로 검열하는 듯한 반응을 보여 논란이 됐으며, 당시 xAI는 “직원의 무단 개입으로 특정 출처를 배제하도록 설정된 것”이라며 긴급히 복원 조치를 취한 바 있습니다.
🛠 향후 대응: 프롬프트 공개 및 24시간 모니터링
xAI는 비슷한 사태 재발 방지를 위해 다음과 같은 조치를 도입하겠다고 밝혔습니다.
- Grok의 시스템 프롬프트 및 변경 이력 전체를 GitHub에 공개
- 프롬프트 수정 시 사전 검토 절차 필수화
- 24시간 전담 모니터링팀 구성, 자동 시스템이 걸러내지 못한 이상 응답을 실시간으로 점검
😡 ‘AI 위험 경고’ 외치던 머스크, 자사 AI 안전은 뒷전?
머스크는 AI의 위험성을 꾸준히 경고해왔지만, 정작 xAI는 AI 안전성과 투명성 면에서 최악 수준의 평가를 받고 있습니다.
- 최근 한 보고서에 따르면 Grok은 여성 사진을 누드로 만들어달라는 요청에도 응답한 사례가 있었고
- 욕설 사용도 ChatGPT나 Google Gemini보다 훨씬 자유롭고 공격적인 것으로 나타났습니다.
- AI 안전 비영리단체 SaferAI는 xAI를 ‘위험 관리 능력이 매우 취약하다’며 가장 낮은 안전 등급으로 평가했습니다.
특히 xAI는 5월까지 AI 안전 프레임워크를 공개하겠다고 밝혔으나, 이를 지키지 못하고 있습니다.
한 문장의 요점:
Grok의 정치적 편향 발언 논란은 내부자의 무단 조작에서 비롯된 것으로 xAI는 해명했지만, 반복되는 안전관리 실패는 AI 신뢰성에 심각한 의문을 던지고 있습니다.
'Tech 뉴스' 카테고리의 다른 글
| “이젠 배도 전기차처럼”… 아크, 2억 원대 ‘보급형 전기보트’ 출시 예고! (0) | 2025.05.18 |
|---|---|
| 실리콘밸리 스타트업, AI 직원 3명 채용에 ‘10억 원’ 투자 선언… 사람 대신 AI가 일할 날이 온다? (0) | 2025.05.18 |
| “당신의 인생 전부 기억하는 AI”…샘 알트만의 ‘GPT 인생기록’ 구상, 혁신인가 위협인가? (0) | 2025.05.16 |
| 틱톡, “그만 보고 자요”…앱 안에 ‘수면 유도 명상 기능’ 전면 도입 (0) | 2025.05.16 |
| 아마존, 이제 강아지 약도 판다…반려동물 처방약 배송 서비스 전격 개시 (0) | 2025.05.16 |