최근 "98% 업타임이 새로운 기준"이라는 말이 기술 업계에서 심심찮게 들려온다. 과거에는 상상하기 어려웠던 대규모 서비스의 잦은 오류와 알 수 없는 버그들이 일상이 되었다. 사용자 인터페이스는 예기치 않은 결함으로 가득하고, 시스템은 예측 불가능하게 불안정하다. 이 모든 현상의 중심에 지난 1년간 폭발적으로 확산된 AI 에이전트가 있다.
에이전트가 짜낸 '개발 속도', 독이 되어 돌아온다
지난 1년 동안 Aider나 Cursor 같은 코딩 에이전트가 개발자들 사이에서 빠르게 확산했다. Anthropic과 OpenAI 같은 거대 AI 기업들이 연말 무료 사용 기회를 제공하면서, 이 '마법 같은' 에이전트 코딩 경험은 더 많은 개발자에게 스며들었다. 많은 개발자가 에이전트를 활용해 "늘 만들고 싶었지만 시간이 없었던 프로젝트"를 빠르게 완성하며 생산성의 환상에 빠져들었다.
하지만 12개월이 지난 지금, 이 '진전'의 그림자가 드리운다. 마리오 제크너(Mario Zechner)는 "속도를 늦춰야 한다는 생각들(Thoughts on slowing the fuck down)"이라는 글에서 현 상황을 "Everything is broken"이라고 단정한다. 그의 지적처럼, 소프트웨어는 점차 취약하고 불안정한 덩어리가 된다.
기업들은 "제품 코드의 100%를 AI가 작성한다"고 자랑하지만, 그 결과는 참담하다. 기가바이트 단위의 메모리 누수, UI 결함, 그리고 잦은 충돌은 이제 흔한 일이다. 마이크로소프트 CEO 사티아 나델라가 AI가 작성하는 코드의 양을 강조했음에도 불구하고, 윈도우의 품질 저하에 대한 비판은 계속된다. 심지어 마이크로소프트 자체 블로그 포스트에서도 품질 문제를 간접적으로 시인하는 정황이 포착된다. AWS의 장애가 AI 때문이라는 루머가 돌았고, AWS는 즉시 이를 부인했지만, 내부적으로는 "90일간 리셋"이라는 조치를 취했다는 소식이 전해진다.
이러한 현상의 구조적 원인은 명확하다. 개발 속도 지상주의가 '품질'과 '책임'을 압도한 것이다. 빠르게 코드를 생성하는 에이전트의 유혹에 빠져, 개발팀은 코드 리뷰를 생략하고, 중요한 설계 결정을 에이전트에 위임한다. 불필요한 기능이 남발되며 기술 부채는 기하급수적으로 증가한다. 내부적으로는 '혁신'이라는 명목 아래 검증 없는 AI 도입이 확산된다. 그 결과 개발자들은 "에이전트 코딩으로 자가당착에 빠진다"는 자조적인 목소리가 나온다.
이 흐름이 지속되면 시스템의 안정성은 붕괴되고 유지보수 비용은 통제 불능 수준으로 치솟는다. 결국 최종 사용자의 경험은 악화되고, 기업의 신뢰도는 바닥으로 떨어진다. 일시적인 생산성 증가는 장기적인 품질 저하와 기술 부채라는 거대한 대가로 돌아온다. 이 싸움의 승자는 단기적으로 AI 도구 공급자일지 모르지만, 패자는 최종 사용자 그리고 AI가 만든 코드를 유지보수해야 할 미래의 개발자들이다.
플랫폼의 책임: 속도 뒤에 숨은 위험
단순히 개발 방법론만의 문제는 아니다. 거대 기술 플랫폼의 무책임한 속도 경쟁 역시 유사한 비판에 직면한다. 메타(Meta)가 뉴멕시코주 배심원 재판에서 아동 성 착취 관련 사용자 보호 실패로 3억 7500만 달러 배상 판결을 받았다. 배심원단은 메타가 "불공정하고 기만적"이며 "비양심적"인 거래 관행을 의도적으로 저질렀다고 판단했다.
이 판결은 메타에게 내려진 수많은 법적 압박 중에서도 "최초의 배심원 판결"이라는 점에서 의미가 크다. 지난 수년간 메타는 부모, 내부 고발자, 의원들로부터 플랫폼의 위험성에 대한 수많은 우려를 들어왔다. 뉴멕시코주 검찰총장 라울 토레스(Raúl Torrez)는 2023년부터 소송을 진행하며 잠입 수사를 통해 아동 성 착취 사례 3건을 적발하고 체포했다. 현재 로스앤젤레스에서도 메타와 유튜브의 중독성 기능이 젊은 사용자들의 정신 건강에 해를 끼쳤다는 별도의 소송이 진행 중이다.
이러한 사태의 구조적 원인은 플랫폼 기업들이 사용자 수 확보와 기능 확장에만 집중하고, 안전 및 사회적 책임은 늘 후순위로 밀어냈다는 점이다. 규제의 부재와 느슨한 법 적용을 틈타 무한한 성장을 추구하며, 경쟁 우위를 위해 위험을 감수하는 경영 문화가 뿌리내렸다.
이러한 법적 압박은 앞으로 더 큰 규모의 기술 기업들에게도 확대될 것이다. '소프트웨어는 법이다'라는 명제는 이제 현실이 된다. 플랫폼은 단순히 도구를 제공하는 것을 넘어, 그 도구가 사회에 미치는 영향에 대한 전적인 책임을 지게 된다. 이 변화의 흐름에서 승자는 사용자 보호를 최우선으로 여기는 기업이 될 것이며, 패자는 책임 회피로 일관하는 거대 기술 기업들이 될 것이다. 속도만이 능사가 아니라는 교훈을 메타의 배상 판결이 다시 한번 각인시킨다.
AI 에이전트의 오남용은 소프트웨어 품질의 붕괴를 초래하고, 플랫폼의 무책임한 성장은 사회적 책임을 등한시하며 막대한 법적 대가를 치른다. 두 사례 모두 '혁신과 속도'라는 미명 아래 '품질과 책임'을 간과하는 기술 업계의 어두운 그림자를 보여준다. 빠르게 개발하고 빠르게 성장하는 것도 중요하지만, 그 과정에서 무엇을 희생하고 무엇을 간과하는지 면밀히 살펴야 한다. AI 에이전트에게 설계 결정권을 넘기기 전에, 최소한 핵심 아키텍처는 인간이 직접 그리고 품질 기준을 명확히 제시해야 한다. 지금 바로 `git blame` 명령으로 AI가 작성한 코드와 사람이 작성한 코드를 구분할 수 있는 정책을 마련하라. AI가 생성한 코드에는 별도의 리뷰 및 테스트 프로세스를 적용해야 한다.