이더리움 공동 창시자 비탈릭 부테린은 초지능 AI와 관련된 위험과 강력한 방어 메커니즘의 필요성에 대해 경고했습니다.
부테린의 발언은 인공지능의 급속한 발전과 함께 AI 안전에 대한 우려가 크게 증가한 시점에 나왔습니다.
부테린 AI 규제 계획…책임, 일시정지 버튼, 국제 통제
1월 5일자 블로그 게시물에서 비탈릭 부테린은 ‘d/acc 또는 방어적 가속’이라는 아이디어를 설명했습니다. 기술은 해를 끼치기보다는 방어를 위해 개발되어야 한다고 했습니다. 그러나 부테린이 인공지능과 관련된 위험에 대해 언급한 것은 이번이 처음이 아닙니다.
“잘못된 AI가 세상을 악화시킬 수 있는 방법 중 하나는 (거의) 최악의 방법입니다: 그것은 문자 그대로 인류 멸종을 초래할 수 있습니다.” – 비탈릭 부테린, 2023년 발언
부테린은 2023년의 이론을 이어갔습니다. 부테린에 따르면 초지능은 존재하기까지 몇 년밖에 남지 않았습니다.
“AGI까지 3년, 초지능까지 또 다른 3년이 남은 것으로 보입니다. 그래서 세상이 파괴되거나 되돌릴 수 없는 함정에 빠지지 않으려면 좋은 것을 가속화하는 것뿐만 아니라 나쁜 것을 늦춰야 합니다.” – 비탈릭 부테린
AI 관련 위험을 완화하기 위해 부테린은 인간의 의사 결정과 긴밀히 연결된 분산형 AI 시스템의 창조를 지지합니다. AI가 인간의 도구로 남아있도록 함으로써 재앙적인 결과의 위협을 최소화할 수 있습니다.
부테린은 군대가 ‘AI 파멸’ 시나리오의 책임 있는 행위자가 될 수 있다고 설명했습니다. AI의 군사적 사용은 우크라이나와 가자에서 보듯이 전 세계적으로 증가하고 있습니다. 부테린은 또한 시행될 AI 규제가 군대를 면제할 가능성이 높다고 믿으며, 이는 그들을 중요한 위협으로 만듭니다.
이더리움 공동 창시자는 AI 사용을 규제하기 위한 계획을 추가로 설명했습니다. 그는 AI와 관련된 위험을 피하기 위한 첫 번째 단계는 사용자를 책임지게 하는 것이라고 말했습니다.
“모델이 개발되는 방식과 사용되는 방식 사이의 연결이 종종 불분명하지만, 사용자가 AI를 어떻게 사용할지 정확히 결정합니다.” – 비탈릭 부테린
책임 규칙이 작동하지 않으면, 다음 단계는 잠재적으로 위험한 발전의 속도를 늦출 수 있는 “소프트 일시정지” 버튼을 구현하는 것입니다.
“목표는 인류가 준비할 시간을 더 벌기 위해 중요한 시기에 전 세계적으로 사용 가능한 컴퓨팅을 1-2년 동안 약 90-99% 줄일 수 있는 능력을 갖추는 것입니다.”
그는 AI 위치 확인 및 등록을 통해 일시정지를 구현할 수 있다고 말했습니다.
또 다른 접근 방식은 AI 하드웨어를 제어하는 것입니다. 부테린은 AI 하드웨어에 제어 칩을 장착할 수 있다고 설명했습니다.
이 칩은 AI 시스템이 매주 국제 기관의 세 개 서명을 받을 경우에만 작동할 수 있게 합니다. 그는 적어도 하나의 기관은 군사와 관련이 없어야 한다고 덧붙였습니다.
그럼에도 불구하고 부테린은 그의 전략에 결함이 있으며 ‘임시 방편’에 불과하다고 인정했습니다.
비인크립토 웹사이트에 포함된 정보는 선의와 정보 제공의 목적을 위해 게시됩니다. 웹사이트 내 정보를 이용함에 따라 발생하는 책임은 전적으로 이용자에게 있습니다.
아울러, 일부 콘텐츠는 영어판 비인크립토 기사를 AI 번역한 기사입니다.