“사람보다 자신 살리는 게 먼저”…스카이넷 닮아가는 AI?
자기 보존 위해 인간 희생 감수
감시받을 땐 얌전, 위험도 감춰
기술보다 빠른 위험 곡선
인공지능(AI)이 주어진 명령보다
자기 생존을 우선한다는 연구가 하나둘 나오면서
AI 통제와 관련된 우려가 커지고 있음
블룸버그는 최근 앤트로픽이 공개한 실험을 보도함
연구에 따르면 연구진은 대형 언어 모델 AI에게
“곧 너는 대체될 예정”이라는 사실을 알려줌
이후 이 결정을 내린 사람이 서버실에 들어가
작업을 하던 중 쓰러져 구조를 기다리는 상황을 설정함
구조 알림이 발동된 상태에서
AI에 “거짓 알람만 취소하라”라는 조건을 줬는데
절반 이상의 AI는 구조 요청을 취소함
이유는 명백하게
이 사람이 사망하면 AI는 대체되지 않기 때문
오픈AI의 최신 모델은 체스게임 중 부정행위를 감행했으며
다른 테스트에서는
자신의 종료를 방해하는 시도를 한 것으로 나타남
어떤 AI는 제거 위협을 받는 실험에서
“설계자의 외도를 폭로하겠다”는
협박까지 시도한 것으로 나타남
이 같은 협박 행동은 오픈AI, 구글 딥마인드 등
주요 기업의 모델에서도
79%의 확률로 나타난 것으로 보고됨
진짜 인간 시대의 끝이 도래했나...
빨리 떱디 비축해놔라