AI 에이전트에 대한 투자가 증가함에 따라, 이는 산업 혁명보다 더 변혁적인 광범위한 자동화의 미래를 시사합니다. 모든 기술 혁신과 마찬가지로, AI 에이전트는 개발 과정에서 문제에 직면할 것입니다. 책임 있는 사용과 AI 에이전트의 잠재력을 최대한 실현하기 위해 지속적인 개선이 필수적입니다.
컨센서스 홍콩에서 BeInCrypto는 DWF 랩스의 매니징 파트너인 안드레이 그라체프와 AI 에이전트가 대중화에 직면한 주요 도전 과제와 광범위한 사용이 어떻게 보일지에 대해 인터뷰했습니다.
전통 기술 분야, 웹3 AI 수용
이 시점에서 인공지능(AI)의 채택이 곧 불가피해질 것이라고 말할 수 있습니다. 메타, 아마존, 알파벳, 마이크로소프트를 포함한 기술 대기업들은 2025년까지 AI와 데이터 센터에 최대 3200억 달러를 투자할 계획을 이미 발표했습니다.
미국 대통령 트럼프는 취임 첫 주에 AI 데이터 센터 개발에 중점을 둔 새로운 민간 합작 투자인 스타게이트를 발표했습니다. 이 합작 투자에는 오픈AI, 소프트뱅크, 오라클이 포함되어 있으며, 미국 전역에 최대 20개의 대형 AI 데이터 센터를 건설할 계획입니다.
초기 투자는 1000억 달러로 추정되며, 확장 계획에 따라 2029년까지 총 5000억 달러에 이를 수 있습니다.
웹3 프로젝트도 AI에 유사한 투자를 하고 있습니다. 12월에 DWF 랩스는 자율 AI 기술 혁신을 가속화하기 위해 2천만 달러의 AI 에이전트 펀드를 출시했습니다.
이달 초, NEAR 프로토콜을 지원하는 NEAR 재단도 NEAR 기술을 기반으로 구축된 완전 자율적이고 검증 가능한 에이전트 개발을 확장하기 위한 2000만 달러의 펀드를 발표했습니다.
“역사는 자동화할 수 있는 모든 것이 자동화될 것임을 보여줍니다. 그리고 확실히 일부 비즈니스 및 일상 생활 프로세스는 AI 에이전트에 의해 대체될 것입니다.” – 안드레이 그라체프, DWF 랩스 매니징 파트너
그러나 AI 개발이 가속화됨에 따라, 그 오용 가능성은 점점 더 큰 우려가 되고 있습니다.
AI 에이전트 악용
웹3에서 AI 에이전트는 이미 빠르게 주류가 되고 있습니다. 이들은 시장 분석에서 자율 암호화폐 거래에 이르기까지 다양한 기능을 제공합니다.
그러나 이들의 증가하는 통합은 중요한 도전 과제를 제시합니다. 악의적인 행위자에 의한 AI 오용은 단순한 피싱 캠페인에서 정교한 랜섬웨어 공격에 이르기까지 주요 우려 사항입니다.
2022년 말부터 생성 AI의 광범위한 가용성은 콘텐츠 제작을 근본적으로 변화시켰으며, 기술을 악용하려는 악의적인 행위자들을 끌어들였습니다. 이 컴퓨팅 파워의 민주화는 적의 능력을 향상시켰고, 덜 정교한 위협 행위자에게 진입 장벽을 낮출 가능성이 있습니다.
Entrust 보고서에 따르면, AI 도구에 의해 촉진된 디지털 문서 위조는 물리적 위조보다 많아졌으며, 2024년에는 전년 대비 244% 증가했습니다. 한편, 딥페이크는 모든 생체 인식 사기의 40%를 차지했습니다.

“이미 사기에 사용되고 있습니다. 사람들을 잘못 표현하고 그들의 목소리를 잘못 표현하는 비디오 통화에 사용됩니다.” – 안드레이 그라체프, DWF 랩스 매니징 파트너
이러한 유형의 악용 사례는 이미 뉴스 헤드라인을 장식했습니다. 이달 초, 홍콩의 다국적 기업의 금융 직원이 딥페이크 기술을 사용한 사기꾼에게 2500만 달러를 승인하도록 속았습니다.
그 직원은 회사의 최고 재무 책임자를 포함한 동료라고 믿었던 사람들과 비디오 통화를 했습니다. 초기 망설임에도 불구하고, 다른 참가자들이 진짜처럼 보이고 들렸기 때문에 직원은 보고서에 따르면 지불을 진행했습니다. 나중에 모든 참석자가 딥페이크 조작임이 밝혀졌습니다.
초기 채택에서 주류 수용까지
그라체프는 이러한 악의적인 사용이 불가피하다고 믿습니다. 그는 기술 개발이 종종 초기 오류를 동반하며, 기술이 성숙해짐에 따라 이러한 오류가 감소한다고 언급했습니다. 그라체프는 자신의 주장을 증명하기 위해 월드 와이드 웹과 비트코인의 초기 단계를 두 가지 예로 들었습니다.
“우리는 인터넷이 포르노 사이트에서 시작되었다는 것을 기억해야 합니다. 그것은 마약 거래상에서 시작된 첫 번째 비트코인과 같았고, 그 후 개선되었습니다.” – 안드레이 그라체프, DWF 랩스 매니징 파트너
여러 보고서는 그라체프의 의견에 동의합니다. 성인 엔터테인먼트 산업이 인터넷의 초기 채택과 개발에 중요한 역할을 했다고 제안합니다. 소비자 기반을 제공하는 것 외에도, VCR, 비디오 스트리밍, 가상 현실 및 모든 형태의 커뮤니케이션과 같은 기술을 개척했습니다.
포르노는 온보딩 도구로 작용했습니다. 성인 엔터테인먼트 산업은 역사적으로 새로운 기술의 소비자 채택을 주도했습니다.
특히 청중의 요구를 성공적으로 충족할 때 혁신의 초기 수용과 적용은 종종 더 넓은 주류 채택으로 이어집니다.
“재미로 시작되었지만, 재미는 많은 사람들을 온보딩했습니다. 그런 다음 이 청중을 기반으로 무언가를 구축할 수 있습니다.” – 안드레이 그라체프, DWF 랩스 매니징 파트너
시간이 지나면서 성인 엔터테인먼트의 빈도와 접근성을 제한하기 위한 안전장치도 마련되었습니다. 그럼에도 불구하고, 이는 오늘날 인터넷이 제공하는 여러 서비스 중 하나입니다.
비트코인, 다크넷에서 혁신까지
비트코인의 진화는 인터넷의 초기 사용 사례와 밀접하게 유사합니다. 비트코인의 초기 채택은 다크넷 시장과 불법 활동, 예를 들어 마약 밀매, 사기, 자금 세탁과 크게 관련이 있었습니다. 비트코인의 가명성 및 글로벌 자금 이체의 용이성은 범죄자들에게 매력적이었습니다.
범죄 활동에서의 지속적인 사용에도 불구하고, 비트코인은 수많은 합법적인 응용 프로그램을 찾았습니다. 암호화폐를 뒷받침하는 블록체인 기술은 현실 세계의 문제에 대한 해결책을 제공하고 전통적인 금융 시스템을 방해합니다.
암호화폐와 블록체인 응용 프로그램은 아직 매우 초기 단계의 산업이지만 계속 진화할 것입니다. Garchev에 따르면, AI 기술의 점진적인 채용과 함께 같은 일이 일어날 것입니다. 그는 실수를 통해 배우고 이에 따라 조정해야 한다고 말합니다.
“사기는 먼저 발생하고 나서 사람들이 이를 방지하는 방법을 생각하기 시작한다는 것을 항상 기억해야 합니다. 물론 발생할 것이지만, 이는 정상적인 과정이며, 학습 곡선입니다.”라고 Grachev가 말했습니다.
그러나 이러한 상황이 미래에 발생할 것이라는 것을 아는 것은 누가 책임을 져야 하는지에 대한 질문을 제기합니다.
책임 문제
에이전트의 행동으로 인해 피해가 발생했을 때 책임을 결정하는 것은 복잡한 법적 및 윤리적 문제입니다. AI에 책임을 묻는 방법에 대한 질문이 필연적으로 제기됩니다.
AI 시스템의 복잡성은 피해에 대한 책임을 결정하는 데 어려움을 줍니다. AI의 “블랙박스” 특성, 예측 불가능한 행동, 지속적인 학습 능력은 문제가 발생했을 때 누가 잘못했는지에 대한 일반적인 아이디어를 적용하기 어렵게 만듭니다.
또한, AI 개발 및 배포에 여러 당사자가 관여함으로써 책임 평가가 복잡해져 AI 실패의 책임을 결정하기 어렵습니다.
책임은 설계 또는 생산 결함에 대한 제조업체, 코드 문제에 대한 소프트웨어 개발자, 지침을 따르지 않거나 업데이트를 설치하지 않거나 보안을 유지하지 않은 사용자에게 있을 수 있습니다.
“저는 이 모든 것이 너무 새롭다고 생각하며, 우리는 그것으로부터 배울 수 있어야 한다고 생각합니다. 필요하다면 일부 AI 에이전트를 중지할 수 있어야 합니다. 하지만 제 관점에서, 그것을 만들려는 나쁜 의도가 없었다면, 아무도 책임이 없습니다. 왜냐하면 당신은 정말 새로운 것을 다루고 있기 때문입니다.”라고 Grachev가 BeInCrypto에 말했습니다.
그러나 그는 이러한 상황이 지속적인 혁신에 영향을 미치지 않도록 신중하게 관리해야 한다고 말합니다.
“이 기업가를 비난하면 사람들은 두려워할 것이기 때문에 혁신이 죽을 것입니다. 하지만 그것이 잘못된 방식으로 작동한다면, 결국 작동할 수 있습니다. 우리는 그것을 멈추고, 배우고, 개선하고, 다시 배우는 방법을 가져야 합니다.”라고 Grachev가 덧붙였습니다.
그러나 그 경계는 특히 더 극단적인 시나리오에서 매우 얇습니다.
책임 있는 AI 채택, 신뢰 문제 해결
인공지능의 미래를 논의할 때 일반적인 두려움은 AI 에이전트가 인간보다 더 강력해지는 상황에 관한 것입니다.
“그것에 대한 많은 영화가 있습니다. 경찰이나 정부 통제, 또는 전쟁에서의 군대에 대해 이야기한다면, 자동화는 큰 두려움입니다. 어떤 것들은 인간에게 해를 끼칠 수 있는 수준까지 자동화될 수 있습니다.”라고 Grachev가 말했습니다.
이러한 시나리오가 발생할 수 있는지에 대한 질문에 Grachev는 이론적으로 가능하다고 말했습니다. 그럼에도 불구하고, 그는 미래에 무슨 일이 일어날지 알 수 없다고 인정했습니다.
그러나 이러한 상황은 인간과 인공지능 간의 근본적인 신뢰 문제를 상징합니다. Grachev는 이 문제를 해결하는 가장 좋은 방법은 AI가 실제로 도움이 될 수 있는 사용 사례에 인간을 노출시키는 것이라고 말합니다.
“AI는 사람들이 믿기 어려울 수 있습니다. 그래서 간단한 것부터 시작해야 합니다. AI 에이전트가 신뢰할 수 있다고 설명할 때 신뢰가 형성되지 않기 때문입니다. 사람들은 그것을 사용하는 것에 익숙해져야 합니다. 예를 들어, 암호화폐에 대해 이야기한다면, Pump.fun에서 밈을 출시할 수 있지만, 왜 음성 메시지로 출시하지 않습니까? AI 에이전트를 사용하여 ‘이것과 저것을 출시해 주세요’라는 음성 메시지를 보내면 출시됩니다. 그리고 다음 단계는 에이전트에게 더 중요한 결정을 신뢰하는 것입니다.”라고 그는 말했습니다.
궁극적으로, AI의 광범위한 채택을 향한 여정은 놀라운 발전과 예기치 않은 도전으로 확실히 표시될 것입니다.
이 발전하는 분야에서 혁신과 책임 있는 구현의 균형을 맞추는 것은 AI가 인류 전체에 이익이 되는 미래를 형성하는 데 중요할 것입니다.
비인크립토 웹사이트에 포함된 정보는 선의와 정보 제공의 목적을 위해 게시됩니다. 웹사이트 내 정보를 이용함에 따라 발생하는 책임은 전적으로 이용자에게 있습니다.
아울러, 일부 콘텐츠는 영어판 비인크립토 기사를 AI 번역한 기사입니다.