미국 국방부가 인공지능 기업 앤스로픽(Anthropic)에 칼을 빼 들었다. 모델의 대량 감시 및 자율 무기 사용에 대한 '레드라인'을 삭제하지 않으면 공급망 위험으로 간주하겠다는 선언이다. 기술 발전의 최전선에서, AI 모델의 윤리적 사용 범위를 두고 정부와 민간 기업 간의 정면 대결이 펼쳐진다. 이는 단순한 계약 분쟁이 아니다. AI가 인간 사회의 핵심 인프라로 자리 잡으면서, 누가 기술의 가치와 한계를 정의할지 그 주도권을 둘러싼 근원적인 질문을 던진다.

AI가 코드를 썼다고 책임까지 사라지지는 않는다

최근 해커 뉴스(Hacker News)는 새로운 가이드라인을 발표했다. "생성형 AI나 AI가 편집한 댓글을 게시하지 말라. HN은 인간 간의 대화를 위한 공간이다." 여기에는 826개의 댓글이 달렸다. 수십 년간 기술 토론의 중심이었던 이 플랫폼이 AI 생성 콘텐츠에 명확한 선을 긋는다. 또한, [드와케시 파텔(Dwark