미국 부통령 J. D. Vance는 흥미로운 주장을 펼쳤다. 그는 과거 뉴욕 타임즈와의 인터뷰에서 ATM이 은행원 일자리를 없애지 않았다고 말했다. 오히려 기술 발전이 인간 생산성을 증진시키며 새로운 역할을 창출한다는 낙관론을 피력했다. 그러나 현실은 J. D. Vance의 주장과 미묘하게 다르다. 자동화는 단순히 작업의 일부를 대체하는 수준을 넘어, 인간의 역할과 사회 전체의 구조를 근본적으로 흔드는 파급력을 보였다. 오늘날 AI 기술은 바로 그 격변의 중심에 서 있다.

AI 에이전트의 자유, 그 뒤에 숨은 그림자

AI 에이전트의 자율성이 급격히 진화하고 있다. 인간의 개입 없이 스스로 목표를 설정하고 작업을 수행하는 에이전트가 현실로 다가왔다. 최근 Understudy와 같은 데스크톱 에이전트가 등장했다. 이 에이전트는 사용자가 작업을 한 번 시연하면 화면 영상과 의미론적 이벤트를 기록하여 의도를 추출한다. 단순한 매크로를 넘어, macOS 환경에서 GUI 앱, 브라우저, 셸 도구, 파일 관리, 메시징까지 아우르는 복합적인 업무를 자동화한다. 데모 영상에서는 이미지 검색, 다운로드, 배경 제거, 내보내기, 텔레그램 전송 같은 일련의 과정을 능숙하게 처리한다.

그러나 에이전트의 자율성이 커질수록, 보안과 책임 문제는 더욱 복잡해진다. AI 에이전트가 서비스에 접속하기 위해 API 키 같은 민감한 자격 증명을 직접 다루는 상황은 심각한 보안 위험을 초래한다. 이러한 위험에 대응하기 위해 OneCLI와 같은 오픈소스 게이트웨이가 개발되었다. OneCLI는 AI 에이전트와 호출되는 서비스 사이에 위치한다. 실제 자격 증명은 OneCLI의 암호화된 볼트에 저장하고, 에이전트에게는 플레이스홀더 키를 제공한다. 에이전트가 HTTP 호출을 프록시를 통해 시도하면, OneCLI는 요청을 검증하고 플레이스홀더를 실제 자격 증명으로 교체하여 요청을 전달한다. 에이전트는 결코 실제 비밀 정보를 만지지 않는다. 이러한 아키텍처는 에이전트의 '자유'를 보장하면서도 '보안'이라는 필수적인 통제 장치를 마련한다.

문제는 여기서 끝나지 않는다. 에이전트가 생성하는 코드와 콘텐츠의 라이선스 및 저작권 문제는 또 다른 난제다. 오픈소스 코드를 학습한 AI가 새로운 코드를 생성했을 때, 원본 코드의 라이선스 의무를 어떻게 적용할 것인가는 여전히 뜨거운 논쟁거리다. Malus는 이러한 상황에 대응하는 '클린 룸 서비스'를 제공한다. AI가 생성한 코드나 콘텐츠가 라이선스 조건을 준수하는지 검증하고 관리하는 서비스는 앞으로 더욱 중요해진다. 에이전트의 자율적 활동 범위가 넓어질수록, 그 활동의 결과물에 대한 법적, 윤리적 책임 소재를 명확히 하는 시스템이 필수적이다. AI 에이전트에게 자율성을 부여하는 것은 혁신을 촉진하지만, 동시에 그 자율의 범위와 책임을 규정하는 엄격한 기준을 요구한다.

AI, 일자리를 넘어 인간의 삶을 흔들다

J. D. Vance 부통령은 ATM이 은행원 일자리를 대체하지 않았다고 주장했다. 그는 1970년대에 수많은 은행원 실직을 예상했지만, 실제로는 ATM 도입 후에도 은행원 수가 오히려 늘었고, 이들은 더 생산적인 업무를 수행한다고 말했다. 그러나 David Oks의 블로그는 이 통념에 반기를 든다. 그의 분석에 따르면, ATM 자체는 은행 업무의 '자동화'를 가져왔을 뿐, 은행의 지점 확장과 함께 은행원 고용을 유지시켰다. 정작 은행원 수를 줄인 것은 2007년 iPhone 출시 이후 모바일 뱅킹이 활성화되면서다. 이는 기술이 단순히 작업을 자동화하는 것을 넘어, 서비스 접근 방식과 인프라 자체를 변화시킬 때 진정한 일자리 변화가 일어난다는 점을 시사한다. AI는 바로 그러한 '근본적 변화'를 초래할 수 있다.

AI의 영향은 비단 일자리 문제에만 국한되지 않는다. 잘못된 AI는 인간의 삶을 파괴한다. Tennessee에 사는 할머니 Angela Lipps의 사례는 AI의 그림자를 극명하게 보여준다. 그녀는 노스다코타주 파고에서 발생한 은행 사기 사건에 AI 안면 인식 기술로 오인되어 6개월 가까이 감옥에서 시간을 보냈다. 실제로는 테네시주에 있었음에도 불구하고, AI의 오인식은 그녀에게 집과 차, 반려견을 잃게 만들었다. 심지어 그녀는 평생 비행기를 타본 적 없는 50대 할머니였다. AI는 때로 인간이 저지르는 실수보다 더 큰, 그리고 더 무자비한 결과를 낳는다. 기술적 결함, 불투명한 알고리즘, 편향된 데이터는 무고한 개인의 삶을 송두리째 파괴할 수 있는 강력한 무기가 된다.

AI 코딩 도구의 확산은 개발자들 사이에서도 깊은 균열을 일으킨다. lmorchard의 블로그는 이 현상을 'AI 코딩 분열'로 명명하며, '결과 지향형' 개발자와 '장인정신 지향형' 개발자로 나뉜다고 설명한다. 결과 지향형 개발자는 AI를 통해 더 빠르고 효율적으로 결과물을 만들어내는 것에 집중하며 만족한다. 하지만 Nolan Lawson이 “We Mourn Our Craft”에서 언급했듯이, 장인정신을 가진 개발자들은 코드를 마치 찰흙처럼 만지고 빚어내는 창작의 즐거움, 밤늦게까지 버그와 씨름하며 마침내 해결했을 때의 희열, 그리고 자신의 서명이 담긴 결과물에 대한 자부심을 상실할까 우려한다. AI는 단순한 노동력 대체가 아니라, 인간이 일에서 느끼는 본질적인 '기쁨'과 '성취감', 그리고 '정체성'까지 흔든다. 기술 발전이 인간 고유의 영역을 침범할 때, 우리는 무엇을 지키고 무엇을 내어줄 것인지에 대한 근본적인 질문에 직면한다.

AI 에이전트의 자율성은 곧 더 큰 힘을 의미한다. 이 힘이 인간의 삶에 미치는 영향은 복잡하고 다면적이다. 기술 혁신이 생산성과 효율성을 높이는 것은 분명하지만, 그 과정에서 발생하는 보안 문제, 법적 책임, 그리고 인간의 존엄성에 대한 위협은 결코 간과할 수 없다. AI가 더 똑똑하고 독립적으로 행동할수록, 그 행동에 대한 궁극적인 책임의 무게는 더욱 무거워진다.

참고