chardet은 15년 된 파이썬 라이브러리다. 아무도 건드리지 않던 이 코드가 갑자기 저작권 논쟁의 중심에 섰다. 이는 인공지능이 코드를 쓰고 그림을 그리는 시대가 던지는 근본적인 질문의 시작점이다. 우리는 지금 법적인 '합법성'과 윤리적인 '정당함' 사이의 날카로운 균열을 목격한다.
AI가 코드를 썼다고 라이선스가 사라지진 않는다
지난주, 월 1억 3천만 개의 프로젝트가 사용하는 텍스트 인코딩 감지 라이브러리 `chardet`의 관리자 댄 블랜차드(Dan Blanchard)는 새로운 버전 7.0을 공개했다. 이 버전은 이전보다 48배 빠르고 멀티 코어를 지원하며, 완전히 새롭게 설계되었다. 놀랍게도 앤트로픽(Anthropic)의 AI 클로드(Claude)가 기여자 목록에 이름을 올렸다. 동시에 라이선스 또한 LGPL에서 MIT로 변경되었다.
블랜차드는 기존 소스 코드를 직접 보지 않았다고 주장한다. 그는 오직 API와 테스트 스위트만 클로드에 입력한 후 라이브러리를 처음부터 다시 구현해달라고 요청했다. 그 결과물은 JPlag 측정 결과 이전 버전과 1.3% 미만의 유사성을 보였다. 그는 이 코드가 독립적인 신작이며, 따라서 LGPL 라이선스를 따를 의무가 없다고 결론 내렸다. 그러나 라이브러리의 원저자인 마크 필그림(Mark Pilgrim)은 이에 반대하는 GitHub 이슈를 제기했다. LGPL은 수정본이 동일한 라이선스로 배포되어야 한다고 규정하며, 원본 코드베이스에 충분히 노출된 상태에서 AI를 통해 재구현된 코드를 '클린룸' 작업으로 볼 수 없다는 것이 그의 주장이다.
오픈소스 커뮤니티의 저명한 인사들까지 이 논쟁에 참여했다. 플라스크(Flask)의 창시자 아민 로나허(Armin Ronacher)는 라이선스 변경을 환영했으며, 레디스(Redis)의 창시자 살바토레 산필립포(Salvatore Sanfilippo)는 AI 재구현에 대한 광범위한 법적 옹호를 펼쳤다. 두 사람 모두 블랜차드의 행위가 합법적이라고 판단한다. 그러나 이는 합법성이 곧 정당성을 의미하는지에 대한 핵심 질문을 회피하는 태도다. 법은 최소한의 기준을 설정할 뿐이며, 그 기준을 충족한다고 해서 행위가 항상 옳다고 단정할 수는 없다.
AI가 기존의 창작물을 학습하고 새로운 결과물을 내놓을 때, 그 결과물에 대한 지적재산권은 누가 소유하는가? 그리고 기존 창작자들은 어떻게 보상받아야 하는가? Tess.Design의 사례는 이 질문에 대한 기업의 노력이 얼마나 어려운지 보여준다. 2024년, Tess.Design은 AI 이미지 모델 마켓플레이스를 만들어 아티스트들에게 스타일 사용료의 50%를 로열티로 지급했다. 이들은 수많은 저작권 소송에 대한 미디어 기업들의 우려를 해소하고 '정식으로 라이선스된 이미지 생성기'를 표방했다. 그러나 2년도 채 되지 않아 문을 닫았다. AI가 수십억 개의 스크랩된 이미지로 학습하여 논란이 깊은 상황에서, 소비자들이 아티스트 보상에 대한 믿음을 갖고 있음에도 불구하고, 실제 비즈니스 모델은 성공하기 어려웠다. 이는 AI 시대에 법적 해석을 넘어선 '정당한 보상'과 '윤리적 창작'의 새로운 틀이 절실함을 의미한다. AI가 합법적인 경계를 넘지 않았다고 해서, 기존 창작 생태계에 대한 침해까지 정당화되지는 않는다는 근본적인 의문을 남긴다.
AI 에이전트, 스스로 코드를 짜며 로컬로 침투한다
AI가 코드를 직접 작성하는 이 시대에, 인간은 더 이상 AI의 결과물을 단순히 소비하는 데 그치지 않는다. AI는 이제 특정 작업을 자율적으로 수행하는 '에이전트'의 형태로 우리 일상과 개발 환경에 깊숙이 침투한다. 이러한 변화는 AI 에이전트의 개발과 배포 방식에도 근본적인 전환을 요구한다.
최근 DenchClaw가 등장했다. YC S24를 졸업한 이 회사는 오픈클로(OpenClaw) 기반의 '로컬 CRM'을 표방한다. 이는 AI 에이전트가 아웃바운드 콜이나 법률 상담 같은 기업용 작업을 자동화하던 데서 나아가, 로컬 환경에서 사용자 개인의 작업을 돕는 형태로 발전하고 있음을 보여준다. DenchClaw는 `npx denchclaw`라는 간단한 명령으로 실행되며, OpenClaw를 리액트(React)의 초기 단계에 비유하며, Next.js나 Gatsby 같은 프레임워크가 필요하다고 강조한다. 즉, 강력한 원시 기능(primitive)을 넘어 실제 사용 가능한 '패턴'과 '프레임워크'가 필요하다는 인식이다.
흥미롭게도, AI가 직접 코드를 작성하도록 설계된 새로운 프로그래밍 언어 Mog도 발표되었다. Mog의 스펙은 3,200 토큰으로, LLM이 쉽게 이해하고 작성하도록 최적화되었다. 일반적인 프로그래밍 언어에서 중요하게 여기는 연산자 우선순위나 암묵적 타입 변환 같은 개념은 오히려 '발목을 잡는 요소(foot-guns)'로 간주하여 배제했다. 정적 타입, 임베딩 가능, 능력 기반 권한(Capability-Based Permissions) 같은 특징은 AI 에이전트가 안전하고 효율적으로 자율적인 작업을 수행하도록 돕는다. 호스트가 Mog 프로그램이 호출할 수 있는 함수를 정확하게 제어하여 에이전트 생성 코드까지 권한이 전파되는 구조다.
이러한 로컬 에이전트의 부상과 AI 전용 언어의 등장은 Terminal Use 같은 배포 플랫폼의 필요성으로 이어진다. YC W26 출신인 Terminal Use는 '파일시스템 기반 에이전트를 위한 Vercel'을 자처한다. 에이전트 개발자들이 샌드박스 환경에서 파일시스템을 활용하는 코딩 에이전트, 연구 에이전트 등을 쉽게 배포하도록 돕는다. 에이전트의 패키징, 샌드박스 실행, 메시지 스트리밍, 상태 유지, 파일 관리 등을 추상화하여 개발 편의성을 높인다. 클로드 에이전트 SDK나 코덱스 SDK를 지원하며, 파일시스템을 작업 수명 주기와 분리된 '일등 시민(first-class primitive)'으로 취급한다.
이러한 움직임은 AI 에이전트가 점차 고도로 전문화되고 자율성을 획득하며, 우리의 데이터와 직접 상호작용하는 환경을 만들어낸다. 엔터프라이즈에서 보안과 개인 정보 보호를 이유로 온프레미스 또는 로컬 실행을 선호하는 경향은 이러한 에이전트의 로컬화를 가속한다. 그러나 에이전트가 스스로 코드를 작성하고 자율적으로 행동할수록, 그 에이전트가 가진 '능력 기반 권한'의 관리는 더욱 중요해진다. 인간 개발자는 이제 AI를 위한 언어를 배우고, AI 에이전트의 행동을 정의하며, 그들이 안전하게 작업을 수행하도록 감독하는 역할로 전환한다.
AI 에이전트에게 자율성을 줄수록, 인간이 져야 할 책임의 무게도 함께 커진다.
참고
- Is legal the same as legitimate: AI reimplementation and the erosion of copyleft — AI 재구현과 오픈소스 저작권 논쟁
- Learnings from paying artists royalties for AI-generated art — AI 생성 예술에 대한 아티스트 로열티 지급 실패 사례
- DenchClaw – Local CRM on Top of OpenClaw — OpenClaw 기반의 로컬 CRM 프레임워크
- The Mog Programming Language — LLM이 작성하도록 설계된 프로그래밍 언어
- Launch HN: Terminal Use (YC W26) – Vercel for filesystem-based agents — 파일시스템 기반 AI 에이전트 배포 플랫폼