chardet은 15년 된 파이썬 라이브러리다. 아무도 건드리지 않던 이 코드가 2026년 3월, 갑자기 저작권 논쟁의 중심에 섰다. 버전 7.0의 출시와 함께 라이선스가 LGPL에서 MIT로 바뀌었기 때문이다. 이 변화는 AI 시대가 소프트웨어의 근본적인 규칙까지 흔들기 시작했음을 명확히 보여준다.

AI가 코드를 썼다고 라이선스가 사라지진 않는다

무슨 일인가. chardet의 메인테이너 단 블랜차드는 Anthropic의 클로드(Claude)를 활용해 라이브러리를 재구현했다. 그는 기존 소스 코드를 직접 보지 않았다. API와 테스트 스위트만 클로드에 제공하며 처음부터 다시 만들어 달라고 요청했다. 그렇게 나온 코드의 유사성은 JPlag 측정 기준 1.3% 미만에 불과했다. 블랜차드는 이를 독립적인 새 작업으로 판단했다. 따라서 그는 LGPL 라이선스를 따를 의무가 없다고 결론 내렸다. 라이선스를 MIT로 변경했다.

하지만 원저자 마크 필그림은 즉시 이의를 제기했다. LGPL은 수정본 또한 동일한 라이선스로 배포해야 한다고 명시한다. 원본 코드 베이스에 충분히 노출된 상태에서 AI를 통해 재구현한 것이 '클린룸' 작업으로 인정될 수 없다는 주장이다. 오픈소스 커뮤니티의 저명 인사 아르민 로나허(Flask 개발자)와 살바토레 산필리포(Redis 개발자)는 블랜차드의 재라이선싱을 옹호했다. 그들은 법적으로 문제가 없다고 보았다. 그러나 홍민희 작가는 그들의 주장이 "법적으로 허용된다고 해서 정당한가?"라는 핵심 질문을 회피한다고 지적한다. 법은 최소한의 기준을 정할 뿐이다. 법적 허용이 곧 행위의 정당성을 의미하지 않는다.

왜 지금인가. 이런 논쟁은 AI의 '창작' 능력이 기존 법률 및 윤리 체계와 충돌하기 때문에 발생한다. 과거에는 인간이 직접 코드를 분석하고 재작성하는 경우에만 유사성 여부와 저작권 침해를 따졌다. 하지만 AI는 방대한 데이터를 학습하고, 이를 바탕으로 '새로운' 결과물을 내놓는다. 이 과정에서 '아이디어'와 '표현'의 경계가 모호해진다. chardet 사례는 AI가 단순히 학습 데이터를 재구성하는 것을 넘어, 기존 소프트웨어의 '기능적 정수'만을 추출해 새로운 형태로 '구현'하는 능력을 보여준다. 이는 AI 학습 데이터의 저작권 문제와는 다른 차원의 문제다. AI 자체가 만들어낸 결과물의 '오리지널리티'와 '파생 저작물' 여부를 판가름하는 새로운 기준이 필요하다.

무엇이 걸려 있는가. 이 흐름이 계속되면 오픈소스 생태계의 기반이 흔들릴 수 있다. 오픈소스는 코드 공유와 협력을 통해 발전해왔다. LGPL과 같은 카피레프트 라이선스는 기여한 이들의 노력을 보호하고, 자유로운 사용과 함께 재배포 시 원본 라이선스를 유지하도록 강제한다. AI 재구현이 이러한 의무를 회피할 수 있다면, 누구나 AI를 통해 기존 오픈소스 프로젝트를 손쉽게 '세탁'하여 독점적으로 활용할 길을 연다. 이는 오픈소스 생태계를 위협한다. 원저자들의 정당한 권리를 박탈한다.

이는 저작권자의 권리 보호와 AI 기반 혁신 사이의 거대한 긴장이다. AI가 생산한 소프트웨어의 '진정한 저작자'가 누구인지에 대한 근본적인 질문을 던진다. AI 벤더, AI를 사용한 개발자, 원본 학습 데이터 제공자, 그 누구도 명확하게 자신의 권리를 주장하기 어렵다. 승자는 AI 기술을 통해 기존 지식 자산을 새롭게 포장하여 이득을 취하려는 기업이 된다. 패자는 자신의 노력과 창작물이 AI의 블랙박스 속에서 희석되거나 무단으로 재활용될 위험에 처한 기존 창작자와 오픈소스 커뮤니티이다.

AI가 지시를 내리고 코드를 쓰는 시대

AI와 저작권의 긴장 관계는 비단 코드에만 국한되지 않는다. 2024년 캡윙(Kapwing)이 출시했던 Tess.Design 사례는 시각 예술 분야에서 AI와 로열티 문제가 얼마나 어려운지를 명확히 보여준다. Tess.Design은 AI 이미지 모델 마켓플레이스였다. 아티스트들은 자신의 스타일로 파인튜닝된 모델이 사용될 때마다 50%의 로열티를 받았다. 그러나 2년도 채 되지 않아 문을 닫았다. 미드저니(Midjourney), 달리(DALL-E) 등 기존 AI 모델이 아티스트 동의나 보상 없이 수십억 장의 이미지를 학습하며 논란을 일으키자, Tess.Design은 '적절하게 라이선스된 이미지 생성기'를 표방했다. 하지만 수익 모델은 지속 가능하지 못했다. 미디어 기업들은 저작권 소송을 우려해 AI 도구 사용을 금지하거나 외면했다. 결국 기술적 해법이 법적, 경제적 문제를 해결하지 못했다.

이러한 논쟁의 이면에는 AI 에이전트가 소프트웨어를 직접 생산하는 새로운 패러다임이 자리 잡고 있다. 개발 환경 자체를 AI 에이전트에 최적화하려는 움직임도 활발하다.

무슨 일인가. 덴치클로(DenchClaw)는 오픈클로(OpenClaw) 기반의 로컬 CRM이다. YC S24 출신 기업인 덴치(Dench)의 공동창업자 쿠마르는 직접 AI가 코드를 작성하는 경험을 설명한다. 그들은 아웃바운드 콜링, 법률 업무 등 엔터프라이즈 작업을 자동화하는 에이전트 워크플로 회사를 운영했다. 클라우드에서 AI 도구를 수동으로 추가하는 대신, 오픈소스 기반의 완전히 로컬 환경에서 에이전트가 직접 개발하는 즐거움을 느꼈다고 말한다. 데모 영상에서는 덴치클로가 마치 커서(Cursor)처럼 코딩 에이전트 역할을 하며 덴치클로를 직접 구축하는 모습을 보여준다. "덴치클로가 덴치클로를 만들었다"는 표현은 AI가 스스로 도구를 개발하는 단계를 암시한다.

이러한 흐름 속에서 AI를 위한 프로그래밍 언어도 등장한다. 모그(Mog) 프로그래밍 언어는 정적 타입의 컴파일 언어다. LLM이 작성하도록 설계되었다. 전체 사양은 3,200 토큰에 불과하다. AI 에이전트가 모그 프로그램을 작성하고, 컴파일하며, 플러그인이나 스크립트, 훅으로 동적으로 로드한다. 호스트는 모그 프로그램이 호출할 수 있는 함수를 정확하게 제어한다. 이는 능력 기반 권한 모델을 따른다. 보안을 강화하기 위함이다. 모그는 연산자 우선순위가 없고 암묵적 타입 변환을 허용하지 않는다. 이는 LLM이 코드를 생성할 때 오류율을 최소화하기 위함이다. 메타프로그래밍이나 매크로 지원도 없다. 개발자 테드는 "LLM은 신경 쓰지 않는다"고 말한다. "표현의 자유가 적을수록 좋다"고 덧붙인다.

터미널 유스(Terminal Use)는 파일시스템 기반 에이전트를 위한 버셀(Vercel)과 같은 배포 환경을 제공한다. 이들은 코딩 에이전트, 연구 에이전트, 문서 처리 에이전트 등 파일시스템이 필요한 샌드박스 환경에서 작동하는 에이전트를 쉽게 배포하도록 돕는다. 에이전트 패키징, 샌드박스 실행, 메시지 스트리밍, 상태 유지, 파일 관리 등 에이전트 호스팅의 고충을 해결한다. 클로드 에이전트 SDK와 코덱스 SDK를 지원한다. 파일시스템을 작업 수명 주기와 분리된 일급 객체로 취급한다.

왜 지금인가. AI 에이전트가 '도구 사용'을 넘어 '도구 제작' 능력까지 갖추기 시작했기 때문이다. 기존 LLM은 컨텍스트 윈도우 한계, 보안 문제 등 여러 제약이 있었다. 모그(Mog) 언어처럼 AI 에이전트의 특성에 맞춰 설계된 언어는 이러한 제약을 극복한다. 3,200 토큰이라는 작은 스펙은 LLM이 전체 언어 사양을 컨텍스트에 담고 코드를 생성하기 용이하다. 능력 기반 권한은 AI가 생성한 코드의 보안 취약점을 줄이는 역할을 한다. 덴치클로(DenchClaw)와 터미널 유스(Terminal Use)는 AI 에이전트가 단순히 코드를 생성하는 것을 넘어, 스스로 개발 환경을 정의하고, 확장하며, 실제 비즈니스에 적용하는 단계로 진화했음을 보여준다. 마치 리액트(React) 초창기처럼, 이제 오픈클로(OpenClaw) 같은 AI 프리미티브를 활용하는 '패턴'과 '프레임워크'가 형성되기 시작한 것이다.

무엇이 걸려 있는가. 개발자의 역할은 단순 코딩에서 에이전트 설계 및 관리로 전환한다. AI 에이전트는 반복적이고 정형화된 코딩 작업을 빠르게 대체한다. 인간 개발자는 에이전트가 해결할 문제를 정의하고, 에이전트 간의 상호작용을 조정하며, 최종 결과물의 품질과 윤리적 측면을 검토하는 역할에 집중한다. 이는 새로운 보안 취약점을 발생시킨다. AI가 생성한 코드는 예측 불가능한 버그나 악의적인 로직을 포함할 수 있다. 능력 기반 권한(Mog)이나 샌드박스 환경(Terminal Use) 같은 보안 메커니즘이 더욱 중요해진다.

소프트웨어의 근본적인 정의가 바뀔 수 있다. 인간의 지시와 AI의 자율성 사이의 책임 분배 문제도 부상한다. AI 에이전트가 스스로 코드를 작성하고 배포할 때, 발생한 문제의 법적, 윤리적 책임은 누구에게 있는가? 이는 chardet 사례에서 본 저작권 문제와도 연결된다. AI를 통해 만들어진 소프트웨어에 대한 소유권, 책임, 그리고 정당성 논란은 계속 심화된다. 이 시대의 승자는 AI 친화적 개발 환경을 빠르게 구축하고, AI가 생성한 코드의 효율성을 통제 가능한 수준에서 활용하는 기업이다. 반대로 전통적 개발 방식을 고수하거나 AI 보안에 대한 대비가 부족한 기업은 경쟁에서 뒤처진다.

AI 에이전트에게 자율성을 줄수록 인간이 져야 할 책임의 무게도 함께 커진다.