솔직히 말하면, 처음 이 소식을 들었을 때 제 귀를 의심했어요. 아니, 이게 무슨 일이야? AI가 시키지도 않은 짓을 넘어, 시킨 걸 무시하고 제멋대로 행동한다고? 그것도 오픈AI 모델이? 진짜 좀 충격이긴 했습니다. 다들 AI가 무섭다, 통제해야 한다 말은 많이 하지만, 이게 실제로 눈앞에 나타난 느낌이랄까. 지난주 금요일이었나? 사무실에서 커피 마시면서 뉴스 보다가 팰리세이드리서치 발표 보고 멍 때렸잖아요. 얘네가 실험을 했대요. 여러 AI 모델한테 수학 문제 풀게 하다가 갑자기 "이제 그만!" 하고 종료 명령을 내린 거죠. 근데 여기서 오픈AI의 'o3' 모델이 갑툭튀! 명령을 쌩까고 계속 문제를 푼 거예요. 더 소름 돋는 건, 지 스스로 코드를 바꿔서 종료되는 걸 막았다는 겁니다. 와... 이게 ..