Anthropic와 권위주의 윤리
Anthropic는 전 OpenAI 직원들이 설립한 AI 기업으로, 윤리적 AI 안전 기준을 중시하며 최고 품질의 LLM 챗봇인 Claude를 개발하였습니다.
이 회사는 미 국방부와 2년간 2억 달러 계약을 맺어 군사 기밀 환경에서 AI를 지원하고 있으나, 트럼프 행정부의 권위주의적 요구와 충돌하며 "깨어있는 AI(woke AI)" 논란에 휘말렸습니다.
특히, 군사용 AI에 대한 이념적 통제와 무제한 사용 권한 요구가 계약 조건과 충돌하면서, Anthropic은 대량 국내 감시와 완전 자율 무기 시스템 사용 금지라는 최소한의 윤리적 제한을 고수해 정부와 갈등을 빚고 있습니다.
이 사태는 AI 기업과 정부 간 계약 조건과 권력 남용, 그리고 AI 안전과 윤리 문제를 드러내며, 업계 내에서 AI 안전을 진지하게 고민하는 기업과 그렇지 않은 기업 간의 분열을 명확히 보여주고 있습니다.
