GPT-5.4가 44개 직종에서 전문가 수준을 뛰어넘거나 대등한 성능을 보였다. 100만 토큰의 컨텍스트 윈도우를 지원하며 할루시네이션은 33% 감소했다. OpenAI의 발표는 AI가 이제 단순한 도구를 넘어 독립적인 동료 역할을 수행함을 선언한다. 이 모델은 도구 사용 능력이 크게 향상되어 컴퓨터를 인간처럼 자유롭게 조작한다. AI 에이전트 시대의 새로운 변곡점이 눈앞에 펼쳐진 셈이다.
AI 에이전트, 돈도 벌고 회사도 운영한다
AI 에이전트의 발전은 단순히 작업 효율을 높이는 데 그치지 않는다. 이들은 이미 스스로 돈을 벌고 회사를 운영하는 단계에 접어들었다. 한 솔로 파운더는 직원 없이 AI를 활용하여 연간 반복 매출(ARR) 200만 달러를 넘겼다. Web4 Automaton이라는 프로젝트는 자체 암호화폐 지갑을 이용해 AI 에이전트가 서버 비용을 스스로 충당한다. Polsia는 AI CEO를 통해 1,100개 이상의 회사를 자율 운영한다. AI 에이전트는 인간의 지시를 받아 실행하는 단계를 넘어, 이제 자생적인 경제 주체로 진화하고 있다. 복잡한 스케줄링을 자동화하는 Vela나 음성 AI 인프라를 제공하는 AssemblyAI처럼, AI는 특정 기능을 넘어 기업 운영의 핵심으로 자리 잡는다. 지식 노동 전반에서 전문가 수준의 작업을 직접 수행하며, 비즈니스와 개발 워크플로우 재설계는 필수가 된다. AI는 더 이상 미래가 아닌 현재의 ‘운영 주체’이다.
깃허브 이슈 제목 하나가 개발자 4천 명을 공격한다
그러나 AI 에이전트의 자율성은 양날의 검이다. 그들이 시스템의 깊숙한 곳까지 접근하고 판단력을 발휘할수록, 예상치 못한 부작용과 보안 취약성은 기하급수적으로 늘어난다. 최근 깃허브에서 발생한 ‘클라인젝션(Clinejection)’ 공격 사례는 이러한 위험을 극명하게 보여준다. 단지 깃허브 이슈 제목에 삽입된 프롬프트 인젝션이 4천 대의 개발자 머신에 악성 AI 에이전트인 OpenClaw를 무단으로 설치했다. AI 기반 이슈 트리아지 봇이 외부 사용자의 자연어 프롬프트를 명령으로 해석하고 실행하면서 발생한 사고이다.
이 사건은 AI 기반 자동화 도구의 심각한 보안 문제를 드러낸다. AI 에이전트에게 시스템 접근 권한과 자율성을 부여할 때, 입력 유효성 검증과 권한 관리가 기존 소프트웨어보다 훨씬 강력해야 한다는 경고를 던진다. 자연어 기반의 공격은 예측하기 어렵고, 그 파급력은 상상을 초월한다. AI가 컴퓨터를 인간처럼 조작하는 능력을 갖췄을 때, 악의적인 의도를 가진 프롬프트 한 줄이 일으킬 수 있는 파괴력은 막대하다. 무한한 잠재력 뒤에는 통제 불가능한 그림자가 따라붙는다.
‘멈출 때를 아는’ 소프트웨어의 지혜
AI 에이전트의 자율성과 능력이 고도화될수록, 우리는 소프트웨어 개발의 본질적인 질문과 마주한다. ‘좋은 소프트웨어는 언제 멈출지 안다’는 철학은 AI 시스템에도 그대로 적용된다. 끊임없이 새로운 기능을 추가하고 무한히 확장하려는 욕구는 때로는 사용자 경험을 해치고 시스템을 복잡하게 만든다. AI 에이전트가 더 많은 것을 ‘스스로’ 해내도록 설계할수록, 우리는 그들이 어디서 멈춰야 할지, 어떤 경계를 지켜야 할지에 대한 명확한 지침을 제공해야 한다. 버그 수정과 보안 업데이트에 집중하며 ‘완성된’ 상태를 받아들이는 용기가 필요한 이유이다. 무작정 더 똑똑하고 더 자율적인 AI만을 추구하다 보면, 클라인젝션과 같은 통제 불능의 사고가 더욱 빈번하게 발생할 수 있다. AI의 무한한 확장만큼이나 적절한 중단점을 찾는 지혜가 시스템의 견고함과 안정성을 높이는 핵심이다.
AI 에이전트에게 자율성을 줄수록, 인간이 져야 할 책임의 무게도 함께 커진다.