15년 된 파이썬 라이브러리인 chardet은 한동안 아무도 건드리지 않던 코드였다. 그런데 이 코드가 갑자기 저작권 논쟁의 중심에 섰다. 월 1억 3천만 개 프로젝트에서 사용되는 이 라이브러리의 새 버전이 AI에 의해 재구현되면서 라이선스가 변경된 탓이다. 기술은 언제나 법과 사회의 경계를 시험한다. 지금 이 순간, 인공지능이 코드를 쓰는 방식과 그 코드를 다루는 우리의 태도에서 새로운 갈등이 시작되었다.
AI가 코드를 썼다고 라이선스가 사라지진 않는다
무슨 일인가
오픈소스 생태계는 지금 뜨거운 논쟁에 휩싸였다. chardet이라는 파이썬 라이브러리가 발단이다. 이 라이브러리의 유지보수자인 댄 블랜차드(Dan Blanchard)는 최근 버전 7.0을 출시했다. 그런데 이 버전은 이전 버전에 비해 48배나 빨라졌고 멀티코어를 지원한다. 블랜차드의 주장은 이렇다. 그는 기존 소스 코드를 직접 보지 않았다. Anthropic의 Claude라는 AI 모델에 기존 라이브러리의 API와 테스트 스위트만 입력했다. 그리고 AI에게 코드를 처음부터 다시 만들도록 요청했다. JPlag이라는 도구로 측정해보니, 새로 생성된 코드는 기존 버전과 1.3% 미만의 유사성만 보였다. 그는 이를 독립적인 새 작업으로 판단했다. 그래서 라이선스를 LGPL에서 MIT로 변경했다.
그러나 원작자인 마크 필그림(Mark Pilgrim)은 이 결정에 반대하며 GitHub 이슈를 열었다. 그는 AI가 원본 코드에 충분히 노출된 상태에서 재구현된 코드를 ‘클린룸’ 방식으로 보기 어렵다고 주장한다. LGPL 라이선스는 수정된 작업 역시 동일한 라이선스로 배포해야 한다고 명시한다. 이 논쟁에 Flask의 개발자 아르민 로나허(Armin Ronacher)와 Redis의 개발자 살바토레 산필리포(Salvatore Sanfilippo) 같은 저명한 오픈소스 인사들이 뛰어들었다. 이들은 블랜차드의 행동이 법적으로 정당하다고 옹호했다. 그러나 이들의 주장은 법적 허용과 윤리적 정당성 사이의 간극을 제대로 설명하지 못한다.
왜 지금인가
이런 일이 지금 일어나는 데는 구조적인 원인이 있다. 첫째, AI 모델의 코드 생성 능력이 비약적으로 발전했다. 과거에는 인간 개발자가 직접 코드를 재구현해야만 가능했던 작업을, 이제 AI가 빠르고 효율적으로 처리한다. AI가 기존 코드를 마치 인간처럼 ‘이해’하고, 그 기능을 ‘재구현’하는 기술적 역량이 확보된 것이다. 둘째, 개발자들은 생산성 향상과 기존 라이선스 제약 회피라는 두 가지 강력한 유인을 동시에 받는다. LGPL과 같은 카피레프트 라이선스는 파생 작업에도 동일한 라이선스 적용을 요구한다. 상업적 활용에 제약이 많다. AI를 통한 재구현은 이러한 라이선스 제약에서 벗어날 수 있는 새로운 ‘기술적 우회로’로 비친다.
셋째, 기존의 저작권법은 인간의 창작 활동을 기반으로 한다. AI가 생성한 콘텐츠의 법적 지위에 대한 명확한 기준이 없다. AI가 기존 데이터를 학습하여 새로운 결과물을 만들어낼 때, 그 결과물의 저작권 주체와 파생 저작물성 판단은 늘 모호하다. Tess.Design 사례는 이런 혼란을 보여준다. AI 이미지 모델을 통해 아티스트에게 로열티를 지급하려 했지만, 결국 서비스는 2년도 채 되지 않아 문을 닫았다. AI 시대의 라이선싱 모델이 여전히 실험 단계에 있음을 방증한다. AI의 급격한 기술 발전이 법적, 윤리적 프레임워크의 변화 속도를 앞지른 결과다.
무엇이 걸려 있는가
이 흐름이 계속되면 소프트웨어 생태계는 큰 변화를 맞이한다. 이 논쟁의 승자는 LGPL 같은 강력한 카피레프트 라이선스의 제약에서 벗어나고 싶은 개발자와 기업이다. AI 도구 개발사 역시 AI를 통한 재구현이 표준 관행으로 자리 잡기를 원한다. 이는 더 빠르고 자유로운 상업적 활용을 가능하게 한다. 새로운 기술의 도입으로 효율성과 혁신은 촉진될 여지가 크다.
그러나 패자는 명확하다. 기존 오픈소스 프로젝트의 원작자들, 그리고 카피레프트 정신을 옹호하는 진영이다. AI가 라이선스 제약을 우회하는 도구로 활용되면, 공동체적 가치를 지향하는 오픈소스 생태계의 근간이 흔들린다. 법적 합법성과 사회적 정당성 사이의 간극은 더욱 벌어진다. AI가 학습하는 데이터의 출처와 그로 인한 결과물의 파생 저작물성에 대한 명확한 기준 없이는 공정한 생태계를 기대하기 어렵다. 결국, AI 시대에 맞는 새로운 저작권 및 라이선스 모델을 정립하지 못하면, 창작 의욕 저하와 법적 분쟁의 혼란은 피할 수 없다.
AI 에이전트, 스스로 코드를 짜며 소프트웨어의 미래를 바꾼다
무슨 일인가
AI의 역할은 코드 재구현에만 머무르지 않는다. 이제 AI는 스스로 코드를 작성하고 배포하며, 소프트웨어 개발의 패러다임을 근본적으로 바꾸고 있다. Mog 프로그래밍 언어는 이러한 변화의 선두에 서 있다. Mog는 LLM(대규모 언어 모델)이 코드를 작성하도록 특화되어 설계된 언어다. 정적 타입, 컴파일 언어이며, 그 사양은 3,200 토큰에 불과하다. 이는 AI가 쉽게 이해하고 활용할 수 있는 수준이다. AI 에이전트가 Mog 프로그램을 작성하고, 이를 컴파일하여 동적으로 플러그인, 스크립트, 또는 훅(hook) 형태로 로드하는 방식이다. 여기서 중요한 점은 호스트가 Mog 프로그램이 호출할 수 있는 함수를 정밀하게 제어한다는 것이다. 이는 ‘역량 기반 권한’을 통해 AI가 생성한 코드의 잠재적 위험을 최소화한다.
또 다른 사례로 DenchClaw가 있다. 이 로컬 CRM 프레임워크는 OpenClaw를 기반으로 한다. 개발팀은 DenchClaw가 "DenchClaw를 만들었다"고 설명한다. 이는 AI 에이전트가 개발 과정에 깊숙이 관여했음을 시사한다. 마치 React 초기처럼, OpenClaw는 강력한 원시적 기능을 제공하지만, DenchClaw는 이를 실제 사용 가능한 형태로 만든다. 여기에 Terminal Use (YC W26)라는 파일 시스템 기반 에이전트 배포 플랫폼도 등장했다. 이 플랫폼은 샌드박스 환경에서 코딩 에이전트, 연구 에이전트, 문서 처리 에이전트 등을 배포하고 관리한다. Claude Agent SDK 및 Codex SDK 에이전트와 같은 다양한 AI 에이전트 개발 도구를 지원하며, 파일 시스템을 일등 시민 객체(first-class primitive)로 취급한다.
왜 지금인가
AI 에이전트가 스스로 코드를 짜는 시대로의 전환은 여러 요인으로 촉발되었다. 우선, AI 모델의 코딩 능력이 비약적으로 발전했다. 단순히 코드 스니펫을 생성하는 수준을 넘어, 복잡한 로직을 스스로 구성하고 디버깅하는 능력을 갖췄다. 이는 AI가 전체 애플리케이션 아키텍처를 이해하고 구현하는 단계로 진입했음을 의미한다. 둘째, 개발자들은 AI를 단순한 생산성 도구를 넘어, 개발 프로세스 전반을 위임할 수 있는 '협력자'로 인식하기 시작했다. AI 에이전트가 코드를 작성하고 배포하는 일련의 과정을 자동화하려는 시도가 확산하는 배경이다.
셋째, AI 생성 코드의 보안과 제어에 대한 필요성이 커졌다. AI가 무한한 권한을 가진 코드를 생성하면 시스템 전체가 위험해진다. Mog 언어의 역량 기반 권한 제어는 이러한 문제에 대한 실질적인 해법을 제시한다. AI의 자율적인 코드 생성이 증가할수록, 그 코드가 미칠 영향에 대한 예측과 통제가 중요해진다. 넷째, 복잡한 시스템의 작동 방식을 AI가 더 빠르고 효율적으로 분석하고 활용할 수 있게 되었다. UniFi inform 프로토콜 리버스 엔지니어링 사례처럼, AI는 인간 개발자가 오랜 시간을 들여야 했던 탐색 과정을 단축한다. 이러한 기술적 진보는 AI 에이전트의 개발 자율성을 크게 확장한다.
무엇이 걸려 있는가
이러한 흐름 속에서 소프트웨어 개발 시장은 새로운 승자와 패자를 가른다. 승자는 AI 개발 도구 및 플랫폼 제공자와 생산성 향상을 추구하는 개발자 및 기업이다. 개발 주기가 단축되고 비용이 절감되며, 혁신적인 소프트웨어 출시가 가속화된다. Mog와 같이 AI에 최적화된 언어가 표준으로 자리 잡으며 새로운 개발 생태계를 형성할 가능성도 크다.
그러나 패자는 AI 생성 코드의 잠재적 오류나 보안 취약점에 대한 책임 소재를 명확히 하지 못한 개발팀, 그리고 AI 모델이 충분히 '이해'하지 못한 복잡한 시스템을 다루는 개발자들이다. AI가 코드를 작성하는 시대에 인간 개발자의 역할은 근본적으로 재정의된다. 이제 인간은 단순 코딩 작업에서 벗어나 AI 에이전트를 조율하고, 복잡한 문제에 대한 창의적인 해결책을 제시하며, AI의 한계를 보완하는 역할에 집중한다. Wave Function Collapse 알고리즘처럼, AI 에이전트는 규칙 기반의 정교한 생성 능력을 갖추며 더 복잡한 시스템 구축 능력을 얻는다. 궁극적으로 AI 에이전트가 스스로 코드를 짜고 배포하는 시대가 도래하면, 소프트웨어의 신뢰성과 투명성 확보가 기술적, 윤리적으로 가장 중요한 과제가 된다.
AI가 법적 경계를 넘나들며 코드를 다시 쓰고, 심지어 스스로 코드를 작성하여 소프트웨어를 구축하는 이 거대한 흐름 속에서, 기술은 편리함을 선물하지만 인간은 정당성과 책임이라는 무거운 질문을 마주한다.
참고
- chardet GitHub Repository — 파이썬 텍스트 인코딩 감지 라이브러리.
- Anthropic Claude — Anthropic에서 개발한 AI 어시스턴트 모델.
- JPlag — 프로그래밍 소스 코드 유사성을 측정하는 도구.
- Mark Pilgrim's GitHub Issue — chardet 라이선스 변경에 대한 원작자의 이의 제기.
- Armin Ronacher's blog post — Flask 개발자 아르민 로나허의 chardet 재라이선싱 옹호 글.
- Salvatore Sanfilippo's blog post — Redis 개발자 살바토레 산필리포의 AI 재구현에 대한 광범위한 옹호 글.
- Tess.Design learnings post — AI 생성 예술에 대한 로열티 지불 시도와 서비스 종료에 대한 분석.
- Mog Programming Language — LLM이 코드를 작성하도록 설계된 정적 타입, 컴파일 프로그래밍 언어.
- DenchClaw GitHub Repository — OpenClaw 기반의 로컬 CRM 프레임워크.
- Terminal Use (YC W26) — 파일 시스템 기반 AI 에이전트 배포 및 관리 플랫폼.
- Claude Agent SDK — Anthropic의 Claude 에이전트 개발 키트.
- Codex SDK — OpenAI의 코드 생성 SDK.
- UniFi inform protocol reverse engineering — UniFi 장치 통신 프로토콜 리버스 엔지니어링 사례.
- Wave Function Collapse hex map — Wave Function Collapse 알고리즘을 활용한 절차적 헥스 맵 생성.