클로드 코드에 `/ultraplan`이라고 입력하고 대규모 리팩토링 작업을 붙이니, 로컬 노트북은 자유로운 채 클라우드에서 새로운 코드 아키텍처를 30분 동안 고민하기 시작한다. 이는 단순한 기능 추가를 넘어, AI를 활용한 소프트웨어 개발 워크플로우의 본질적인 변화를 보여주는 장면이다. 애초에 AI 코딩 어시스턴트는 개발자의 생산성을 한 단계 끌어올렸다 평가받지만, 이제는 기획 단계부터 클라우드 컴퓨팅 자원을 활용해 복잡한 문제에 더 깊이 접근하는 방식으로 진화한다.
클라우드에서 그림을 그리는 AI 아키텍트
앤트로픽이 조용히 선보인 클로드 코드의 '울트라플랜 모드'는 개발자가 복잡한 작업을 시작하는 방식 자체를 바꾼다. 기존에는 노트북에서 코딩 에이전트와 씨름하며 계획을 세웠다면, 이제는 강력한 Opus 4.6 모델이 전담 컴퓨팅 자원을 할당받아 클라우드 환경에서 최대 30분 동안 코드 계획을 수립한다. 그동안 개발자의 로컬 노트북은 다른 작업을 처리할 수 있다. 이는 마치 개인 비서에게 고난도 프로젝트의 초기 기획을 통째로 맡기고, 자신은 다른 급한 일에 집중하는 것과 같다.
사용법은 간단하다. 터미널에서 `/ultraplan` 명령어를 입력하고, 그 뒤에 원하는 작업 설명, 예를 들어 "OAuth 2.0으로 인증 모듈 리팩토링" 같은 프롬프트를 붙이면 된다. 그러면 앤트로픽의 클라우드 컨테이너 런타임에서 작업이 시작되며, 개발자의 레포지토리는 스냅샷 형태로 클라우드로 복사된다. 이 과정에서 로컬 환경은 일절 건드리지 않는다.
울트라플랜 모드는 세 가지 계획 유형을 제공한다. `Simple Plan`은 기본적인 작업에 적합하고, `Visual Plan`은 다이어그램이 필요할 때 유용하며, `Deep Plan`은 특히 리스크 평가와 아키텍처 리뷰가 필요한 고위험 프로젝트에 맞춰 고안되었다. 플랜이 완성되면 웹 브라우저에서 시각적으로 열리고, 개발자는 각 섹션에 댓글을 달아 수정 요청을 하거나 즉시 승인할 수 있다. 최종적으로는 클라우드 세션에서 바로 실행할지, 아니면 터미널로 보내 로컬에서 돌릴지 선택한다.
로컬 플랜 모드와 비교하면 울트라플랜의 이점은 명확하다. 첫째, 속도다. 클라우드 환경이 로컬보다 약 두 배 빠른 처리 속도를 보인다. 둘째, 로컬 노트북의 자유다. 30분 동안의 플래닝이 진행되어도 개발자는 코딩 작업을 멈출 필요가 없다. 셋째, 멀티태스킹이 가능하다. 여러 플랜을 동시에 클라우드에서 돌릴 수 있다. 넷째, 협업 기능이다. 시각적 다이어그램과 인라인 코멘트는 팀원 간의 효율적인 공유와 피드백을 가능하게 한다.
이러한 변화는 개발자에게 중요한 질문을 던진다. 단순 버그 수정이나 소규모 리팩토링에는 로컬 플랜 모드로 충분하지만, 대규모 리팩토링, 신규 시스템 설계, 핵심 아키텍처 결정이 필요한 프로젝트라면 울트라플랜의 `Deep Plan` 모드가 강력한 대안이다. 개발 초기 단계부터 클라우드의 강력한 AI 컴퓨팅 자원을 활용해 심도 있는 계획을 수립하고, 이를 시각적으로 공유하며 협업하는 방식은 프로젝트의 성공 가능성을 높이는 새로운 접근법이다. 오늘 당장 클로드 코드 웹 계정(Pro, Max, Team, Enterprise 플랜 중 하나)과 GitHub 레포 연결을 통해 이 '클라우드 아키텍트'를 경험하는 것을 고려해 본다.
AI 시대, 구식 해커 습관으로 개발 환경을 보호하다
클로드 코드 울트라플랜과 같이 강력한 AI 도구가 개발 워크플로우에 깊숙이 들어올수록, 개발 환경의 보안 문제에 대한 경각심은 더욱 커진다. 최근 파이썬 생태계의 공급망 공격, 코딩 에이전트 사용 시의 프롬프트 주입 위험, 그리고 '바이브 코딩'(즉흥적인 AI 코드 생성 및 적용)이 개발 머신에 미치는 보안 영향에 대한 논의는 끊이지 않는다.
이러한 위험에 대응하는 가장 실용적인 방법 중 하나는 의외로 '구식 해커 습관'에서 찾을 수 있다. 한 개발자는 공급망 공격이나 프롬프트 주입 위험으로부터 개발 환경을 보호하기 위해 자신만의 샌드박스 개발 환경을 소개했다. 이는 복잡한 컨테이너나 가상머신을 넘어, 로컬 노트북에 별도의 사용자 계정을 만들어 사용하는 방식이다. 이 계정에는 `sudo` 권한을 주지 않고, 특정 프로젝트 관련 파일만 접근하도록 제한한다.
이러한 간단한 격리 방식은 AI 에이전트가 예상치 못한 악성 코드나 명령을 생성하더라도, 그 영향이 제한된 샌드박스 환경 내에 머무르도록 돕는다. 예를 들어, AI 에이전트가 시스템 파일 변경을 시도하거나 민감한 정보를 외부로 전송하는 코드를 만들더라도, 권한이 없는 계정에서는 해당 작업이 실행되지 않는다. 마치 중요한 실험을 할 때 깨끗하고 통제된 공간에서 진행하듯이, AI와 협력하는 코딩 작업 역시 격리된 환경에서 진행하는 것이 현명하다.
실제로, 오늘부터 당장 시도할 수 있는 구체적 행동은 다음과 같다. AI 코딩 에이전트나 새로운 라이브러리를 테스트할 때는, 일반적인 개발 작업에 사용하는 계정이 아닌, `sudo` 권한이 없는 별도의 로컬 사용자 계정을 하나 생성한다. 이 계정에서는 필요한 최소한의 도구와 파일만 접근하도록 설정하고, 중요한 시스템 설정이나 민감한 데이터가 있는 디렉터리에는 접근하지 못하게 제한한다. 이처럼 간단한 단계만으로도 잠재적인 AI 관련 보안 위협으로부터 주요 개발 환경을 보호하는 데 큰 도움이 된다.
위험한 AI, 보류와 협력이 필요한 이유
이러한 개별 개발자의 보안 노력과 함께, AI 모델 자체의 위험성 인지 및 통제는 더욱 중요하다. 앤트로픽이 위험한 AI 모델 '클로드 미토스'의 일반 대중 공개를 보류한 사례는 이 점을 극명하게 보여준다. 미토스급 모델이 주요 운영체제와 웹 브라우저에서 수천 개의 취약점을 발견하는 능력을 보여줬다는 사실은, 고도화된 AI가 단순한 생산성 도구를 넘어, 그 자체로 심각한 보안 리스크를 내포할 수 있음을 의미한다. 만약 이런 모델이 악의적인 손에 들어가 잘못 배포된다면, 전 세계 경제, 공공 안전, 국가 보안에 치명적인 영향을 미칠 수 있다.
앤트로픽은 미토스 공개를 보류하는 대신, AWS, 마이크로소프트, 구글, 엔비디아 등 거대 기술 기업들과 협력하여 강력한 보안 가드레일을 개발하는 데 집중한다. 그리고 이를 향후 출시될 클로드 오퍼스 모델에 적용할 계획이다. 이는 AI 개발 커뮤니티 전체에 중요한 메시지를 던진다. 아무리 강력한 성능을 가진 모델이라도, 안전성 확보가 최우선 과제라는 점이다.
개발자나 기업은 AI 도구를 선택할 때, 단순히 성능만을 볼 것이 아니라 해당 모델의 보안 정책, 개발사의 책임감 있는 접근 방식을 면밀히 검토해야 한다. AI가 발견하는 취약점의 규모와 파급력을 고려할 때, 투명하고 강력한 보안 가드레일을 갖춘 모델을 사용하는 것이 장기적인 관점에서 훨씬 안전하다.
결국, AI를 활용한 소프트웨어 개발은 이제 클라우드 기반의 혁신적인 기획 도구로 생산성을 극대화하는 동시에, 잠재적인 보안 위협으로부터 스스로를 보호하는 노력이 동반되어야 한다. 새로운 AI 기능의 도입은 구식의 보안 습관을 다시금 소환하고, 더 나아가 AI 자체의 위험성을 통제하려는 산업 전반의 노력을 요구한다. 우리는 AI의 강력한 힘을 빌려 새로운 가치를 창조하는 동시에, 그 힘이 가져올 수 있는 그림자를 직시하고 대비하는 지혜를 발휘해야 한다. 그렇지 않으면, 고도로 발전한 AI가 가져올 편의성 뒤에 숨겨진 예상치 못한 대가에 직면할 수도 있다. 과연 우리는 이 거대한 기술의 양면성을 얼마나 현명하게 다루고 있을까.
참고
- http://addxorrol.blogspot.com/2026/03/slightly-safer-vibecoding-by-adopting.html
- https://www.linkedin.com/feed/update/urn:li:activity:7447654879734738944/
- https://www.linkedin.com/feed/update/urn:li:activity:7447632134158127104/