OpenAI 하드웨어 리더의 사퇴
Caitlin Kalinowski가 OpenAI의 하드웨어 팀을 이끄는 역할에서 사퇴한다고 발표했다. 이는 OpenAI가 발표한 논란이 많은 펜타곤과의 협정에 대한 우려의 일환으로 보인다. Kalinowski는 자신의 소셜 미디어 포스트에서 “이 결정은 쉽지 않았다”며, “인공지능이 국가 안보에 중요한 역할을 한다는 점을 이해하지만, 사법적 감독 없이 국민을 감시하는 것과 무인 자동 무기를 허가 없이 사용하는 것은 충분한 논의가 필요했던 사안이다”라고 밝혔다.
원칙의 문제, 사람의 문제는 아니다
Kalinowski는 이전에 메타에서 증강 현실 안경을 개발하는 팀을 이끌었던 경험이 있다. 2024년 11월 OpenAI에 합류한 그녀는 자신의 사퇴가 “원칙에 관한 문제이지, 사람에 대한 문제가 아니다”라며, OpenAI CEO인 Sam Altman과 팀에 대해 깊은 존경심을 갖고 있음을 강조했다. 그녀는 피해를 최소화하기 위해 회사 내부에서 논의가 필요하다고 생각하는 듯 보인다. Kalinowski는 후속 포스트에서 이 발표가 사전 조율 없이 서두른 측면이 있다. 이는 기본적으로 거버넌스 문제라고 덧붙였다.
OpenAI의 대변인은 Kalinowski의 사퇴 소식을 TechCrunch에 확인해 주었다. 그녀의 우려를 이해하는 듯한 OpenAI의 공식 성명은 “우리는 펜타곤과의 협정이 인공지능의 책임 있는 국가 안보 이용을 위한 실행 가능한 경로를 제공한다고 믿는다. 그리고 우리의 경계선, 즉 “국내 감시와 자율 무기 사용 금지를 명확히 하고 있다”고 말했다.
OpenAI와 펜타곤의 협정 논란
OpenAI와 펜타곤 간의 협정은 약 일주일 전에 발표되었으며, 이는 펜타곤과 다른 AI 기업인 Anthropic 간의 대화가 무산된 후에 이루어진 것이다. Anthropic은 자사 기술이 대규모 내부 감시나 완전 자율 무기 개발에 사용되지 않도록 하기 위한 안전 장치를 협상하려 했지만 실패한 것으로 보인다. 이에 따라 펜타곤은 Anthropic을 공급망 위험 대상으로 지정하였다. Anthropic은 이 지정에 대해 법정에서 싸울 예정이며, Microsoft, Google, Amazon 등은 Anthropic의 언어 모델인 Claude를 국방 고객이 아닌 다른 고객들에게 계속 제공할 것이라고 발표했다.
이후 OpenAI는 기밀 환경에서 기술을 사용할 수 있는 협정을 신속하게 발표하였다. 회사의 경영진은 소셜 미디어를 통해 이 협정이 단순한 계약 언어뿐만 아니라 기술적 안전 장치에도 의존한 “더 포괄적이고 다층적인 접근”을 취하고 있다고 설명했다. 그러나 이번 논란이 소비자들 사이에서 OpenAI의 평판에 악영향을 미친 것으로 보인다. ChatGPT 앱의 삭제 요청은 295% 급증하였고, 반면 Claude는 앱 스토어 차트에서 1위를 기록하고 있다.
필자의 생각
필자는 Caitlin Kalinowski의 명확한 원칙을 고수하며 사퇴한 결정이 의미하는 바가 크다고 본다. 기술의 발전과 국가 안보가 만나는 접점에서 기업들이 보다 책임감 있는 결정을 내려야 한다는 필요성이 어느 때보다 강조되고 있다. 인공지능 기술이 발전함에 따라, 그 사용 방향에 대한 논의는 더욱 심도 있게 이루어져야 하며, 인간의 기준 없이 자동으로 작동하는 시스템에 대한 경계가 필요하다. Kalinowski의 사퇴는 그러한 문제를 다시 한 번 상기시켜주는 중요한 사건으로 여겨진다. 각 기업은 기술을 통해 무엇을 달성하고자 하는지에 대한 명확한 비전을 가져야 하며, 그 과정에서 윤리적인 관점을 소홀히 해서는 안 된다. 이러한 논의가 더 널리 확산되길 바라며, 기술이 인간에게 도움이 되는 방향으로 나아가기를 희망한다.
✔️ 함께 보면 좋은 글
- CES 2026 보고서: 피지컬 AI가 설계한 새로운 질서와 희망
- 로봇 출근, 더 이상 먼 미래의 이야기는 아니다
- 스타트업 투자 지도 2026 – AI 이후 대세와 기회
- 대한민국, ‘AI 기본법’ 시행… 혁신과 규제의 경계에 서다
참고 및 출처: TechCrunch