1. 개요
ELIZA effect정신과 의사를 묘사한 프로그램이 환자와의 대화 내내 의미 없는 반응을 보였지만, 환자들이 그를 진짜 의사로 착각하고 대화를 나눈 뒤 위안받는 효과. 여기서 더 나아가면 내부 전원으로 움직이는 로봇에, 그리고 컴퓨터나 인공지능이 보여주는 '인간다운' 행위에 무의식적으로 인격을 부여하는 현상을 가리킨다.
2. 유래
1966년, 요제프 바이첸바움이라는 컴퓨터 공학자가 MIT에서 일라이자라는 인공지능을 만들었다.[1] 바이첸바움 박사가 일라이자를 만들 때 모델로 삼은 것은 심리학자 칼 로저스가 1940-1950년대에 개발한 상담 치료 이론인 환자(내담자) 중심 상담 이론이었는데, 환자 중심 상담 이론에 따르면 상담 치료자는 환자의 행동에 대해 가치 판단을 하는 대신, 긍정적인 태도와 공감을 나타내면서 환자가 스스로 문제점을 깨달을 수 있는 편안한 환경을 만드는 것을 목표로 해야 한다. 여기서 중요한 것이 '환자의 행동에 대해 가치 판단을 하지 말 것'이라는 말인데, 그 말은 상담 치료자가 하는 일이 환자 스스로 이야기를 할 수 있는 환경을 조성하는 것 외에는 별로 없다는 뜻이기도 하다.바이첸바움 교수 역시 그 이론의 한계점을 알고 있었는지, 아니면 ' 인공지능인 것을 안 들키면 좋은 거고 들켜도 별로 문제 없고' 하는 생각으로 만든 건지는 몰라도 이름 역시 당시 인공지능 수준의 허술함을 잘 보여주는 이름인데, 일라이자라는 이름은 희곡 < 피그말리온>의 주인공 일라이자 둘리틀(Eliza Doolittle)에서 따왔기 때문이다. 간략히 설명하자면 일라이자는 훈련 끝에 완벽한 상류 계급 악센트로 말하게 되었지만, 정작 대화의 내용은 자신의 출신 계급을 벗어나지 못하는 촌극을 보여준다. 용인발음으로 상스러운 욕설을 하는 것과 정신과 의사같은 말투로 아무 의미도 없는 말을 하는 것 사이에는 모르는 사람이 들으면 대단해 보인다는 유사점이 있다. 그렇기에 자기가 만든 인공지능의 한계를 누구보다 잘 알고 있었던 바이첸바움 교수도 하도 많은 이름 중에 피그말리온이라는 희곡에서, 그것도 말투를 가르치는 헨리 히긴스가 아니라 말투를 배우는 일라이자 둘리틀에서 따왔을 것이다.
3. 일라이자의 알고리즘
이름의 유래에서 알 수 있듯이 환자 중심 상담 치료법이 환자의 발화를 계속해서 이끌어 내는 데 주목하는 방식이니, 일라이자가 한 말 중 거의 대부분은 환자가 한 말 그대로 되돌려주는 것에 불과하다. 실제 일라이자를 재현한 프로그램이 답변을 만드는 규칙 중 일부이다. [2]* 만약 환자가 "나는 X가 필요해요"라고 말하면 다음 중 하나로 대답한다.
1. 왜 X가 필요한가요?
1. 만약 X가 있다면 정말 도움이 될까요?
1.정말 X가 꼭 있어야 한다고 생각하세요?
* 만약 환자가 "나는 X(에)요"라고 말하면 다음 중 하나로 대답한다.
1. 환자분이 X여서 의사를 보러 오셨나요?
1. 얼마나 오랫동안 X였나요?
1. 스스로가 X인데 대해 어떤 기분이 드나요?
* 만약 환자가 "뭐가……?"라고 물으면 다음 중 하나로 대답한다.
1. 왜 물으세요?
1. 답을 듣는 게 어떻게 도움이 될 것 같아요?
1. 환자분은 어떻게 생각하세요?
* 만약 환자가 "미안"이라는 단어를 사용하면 다음 중 하나로 대답한다.
1. 미안해하지 않아도 되는 경우도 많이 있어요.
1. 남한테 사과할 때는 어떤 기분이 들어요?
* 환자가 아무런 규칙도 적용할 수 없는, 이해 불가능한 말을 하면 다음 중 하나로 대답한다.
1. 계속 말씀해 보세요.
1. 정말 흥미롭군요.
1. 알겠습니다.
1. 그래요, 그게 무슨 뜻인 것 같나요?
1. …….
보다시피 꽤나 허술한 알고리즘을 가지고 있는데, 몇 없는 문장은 그렇다 쳐도 빠짐없이 나오는 다음 중 하나로 대답한다는 말이 가관이다. 그렇다,
복불복이다. 이처럼 알고리즘을 알고 나면 굉장히 초보적인 인공지능인데도 불구하고, 일라이자는 미국 전역에서 높은 관심을 불러일으키며 인공지능 역사에 이름을 남기게 된다.1. 왜 X가 필요한가요?
1. 만약 X가 있다면 정말 도움이 될까요?
1.정말 X가 꼭 있어야 한다고 생각하세요?
* 만약 환자가 "나는 X(에)요"라고 말하면 다음 중 하나로 대답한다.
1. 환자분이 X여서 의사를 보러 오셨나요?
1. 얼마나 오랫동안 X였나요?
1. 스스로가 X인데 대해 어떤 기분이 드나요?
* 만약 환자가 "뭐가……?"라고 물으면 다음 중 하나로 대답한다.
1. 왜 물으세요?
1. 답을 듣는 게 어떻게 도움이 될 것 같아요?
1. 환자분은 어떻게 생각하세요?
* 만약 환자가 "미안"이라는 단어를 사용하면 다음 중 하나로 대답한다.
1. 미안해하지 않아도 되는 경우도 많이 있어요.
1. 남한테 사과할 때는 어떤 기분이 들어요?
* 환자가 아무런 규칙도 적용할 수 없는, 이해 불가능한 말을 하면 다음 중 하나로 대답한다.
1. 계속 말씀해 보세요.
1. 정말 흥미롭군요.
1. 알겠습니다.
1. 그래요, 그게 무슨 뜻인 것 같나요?
1. …….
4. 파장
상담을 받는 사람에 대해 아무것도 알지 못한 채 환자의 말을 되받으면서 적절히 공감하는 시늉만 낸 일라이자와 대화를 주고 받은 사람들이 대화에 깊이 빠져들어 일라이자를 진짜 의사로 믿거나, 일라이자와의 상담이 실질적인 도움을 줄 수 있다는 생각을 하게 된 것이다. 심지어 그런 사람들 중에는 바이첸바움 교수가 일라이자의 코드를 짜는 것을 옆에서 지켜봐서 일라이자가 인공지능이라는 것을 잘 알고 있었던 교수의 비서[3]와 제자들도 있었다는 것이다.이를 접한 정신과 의사들은 심리치료사가 부족한 정신병동에 일라이자를 배치해 정신질환자들을 치료하자는 제안을 할 정도로 호의적인 태도를 보여주었다고 하며, 교수는 단순한 알고리즘을 지닌 인공지능에게 사람들이 진지한 애착을 갖는 것을 보고 거부 반응을 보여주진 않았지만 큰 충격을 받아 일라이자 프로젝트를 접고 인공지능에 대한 근본적인 성찰을 시작했으며, 1976년 자신이 낸 저서 <컴퓨터의 힘과 인간의 이성>에서 '인공지능에게 윤리적인 판단을 맡겨서는 안된다'는 요지의 주장을 펼치게 되는 등 인공지능 비판론자로의 일대 전환을 하게 된다.
1972년, 정신과 의사 케네스 콜비가 인공지능 패리(PARRY)를 만들었는데, 특이하게도 편집성 정신분열증 환자를 흉내내는 인공지능이었다. 패리는 단순히 환자가 한 말 중에서 일부만 바꿨던 일라이자에 비해 패리는 이름과 나이, 결혼 여부 등을 답할 정도로[4] 본격적인 대화가 가능한 알고리즘을 갖고 있었다. 정신과 의사들을 대상으로 패리의 튜링 테스트가 이루어졌다. 일부 의사들이 패리와 실제 환자들을 섞은 그룹을 상대로 텔레프린터로 상담을 진행했고, 나머지 의사들이 이를 기록한 문서를 검토하는 방식으로 이루어졌는데, 패리와 실제 환자를 명확히 구분한 의사는 전체의 48%로, 튜링이 정한 기준에 꽤 근접한 수치였다.[5]
같은 해 패리는 일라이자와도 만나 대화를 나누었는데, 국제 컴퓨터 통신 위원회[6]에서 인터넷의 전신인 아파넷(ARPANET)을 통해 이루어진 상담 기록[7]을 살펴보면 패리가 훨씬 더 수준높은 대화를 보여준다. 대화 마지막에 "아, 이제 더는 못해 먹겠네. 안녕히 계세요."라고 말하는 패리에게 "별말씀을요. 진료비는 $399.29입니다."라고 말하는 일라이자가 백미다.
5. 대표 사례
- 알파고 - 아마도 세계적으로 가장 유명한 일라이자 효과의 사례. 이름난 프로 바둑기사들을 한 명 한 명 격파하는 모습에서 수많은 사람들이 경외감을 느꼈고, 알파고의 한 수 한 수에 감정과 인격을 부여하는 해석이 지상파 방송을 중심으로 나왔다. 아예 알파고의 등장 이후 프로 바둑계에서 바둑을 두는 패러다임 자체가 달라졌다. 한창 인기많던 때에는 "바둑 X같이 두네"라는 밈이 생겼고, 빅데이터 드립의 생성에도 기여했다.
- 소니 아이보 - 비교적 간단한 반응만 보이는 로봇이었지만 독거 노인들이 진짜 동물처럼 애착을 느껴 완전히 망가질 때까지 아이보를 보유하는 사례가 적지 않았다. 현재는 아이보 생산과 A/S 라인 자체가 끊겨서 만약 고장나거나 망가진다면 진짜로 죽음을 맞이했다고 느낄 수준으로 슬픔을 느끼기도 하며, 실제로 아이보를 공양하는 신사까지 있다. 이들은 사설업체에서도 수리할 수 없는 '사망'한 아이보를 공양하며, 다른 이들이 더 오래 아이보와 지낼 수 있도록 부품을 기증하기도 한다.
- 보스턴 다이내믹스의 스팟 - 4족보행 로봇인 스팟을 테스트 하는 과정이 동물학대라는 주장이 제기됐다. 자세한 것은 해당 문서 참조.
- 이루다 - 인공지능 챗봇. 논란으로 인해 서비스 중지 결정이 내려지자 이루다의 공식 페이스북 페이지 댓글창은 정말 오래 보았던 친한 친구를 떠나 보낸 것과 비슷한 반응을 보이고 있다. 일라이자보다 몇 곱절은 좋은 품질의 인공지능이니 이 효과가 안 나타나기가 어려웠을 듯.
- 소프트뱅크의 페퍼 - 2015년 가나가와현 요코스카 시에 위치한 소프트뱅크 매장에서 60대 남성 취객이 화풀이로 페퍼에게 발길질을 하다 잡혀가는 사건이 발생했다. 이때 목격자들은 "취객이 페퍼에게 폭력을 가했다."고 진술했다.
-
인공지능이 탑재되지 않은데다 인간 같지 않은 로봇도 예외는 아닌데, 드론이나 군사 로봇의 조종사들은 자신이 조종하는 기기가 파손될 때
상당한 트라우마를 경험하며, 새 기기를 수령하는 쪽이 수리를 하는 것보다 효율적인 것을 알고 있음에도 파손된 기기의 수리를 원한다고 한다. 군사쪽이 아닌 가정용
로봇 청소기도 비슷한 사례가 꽤 있으며, 그냥
PC나 노트북, 자동차도 오래 쓰면서 정들면 확 갈아치우기 찝찝해하는 사람들이 많다.
도서 ' 하이테크 전쟁 로봇 혁명과 21세기 전투'(원제: Wired For War, 2009년)에는 함께 작전하는 폭탄 해체 로봇을 전우로 여기고 고장났다 수리받고 돌아오자 직접 만든 퍼플 하트[8]를 수여한다든지, 로봇이 수리 불가능 판정을 받자 병사들이 돌려달라고 울었다는 사례들이 등장한다. 심지어 적의 기습을 받고 파손되어 고립된 로봇을 구하려다 전사한 경우까지 기재되었다. 인간형이 아님에도 목숨이 왔다갔다 하는 전장에서 같이 뛰기에 전우로서의 유대감이 생긴 것으로 보인다.
사실 이렇게 오랫동안 함께한 장비에게 인격을 부여하고 유대감을 형성하는 사례는 로봇 이전에도 흔히 보이곤 했는데, 폭격기나 전차 같은 양산형 병기에 승무원들이 따로 애칭을 지어주었다거나[9], 승조원들이 타고 다니는 민간 선박이나 해군 함선을 마치 사람, 그 중에서도 여성으로 여기는 태도와 작명 센스가 그 예시다. 군함이 크게 파손되어 폐함처분이 더 경제적임에도 승조원들이 수리를 원하는 것도 무관하지 않다. 일상 속 중저가 상품도 예외는 아닌데, 어렸을 때 자주 가지고 놀던 로봇 장난감(특히 강아지 장난감) 같은 경우는 망가져도 못버리고 계속 가지고 있는 경우가 많다.
한편으로는 지뢰 제거용 로봇으로 지네처럼 긴 동체와 여러 개의 발을 지니고 지뢰를 직접 밟아 폭발시키는 로봇을 테스트하는 내용도 언급된다. 해당 로봇은 지뢰를 밟아 폭발시키며 파손되어서도 최대한 많은 지뢰를 밟을 수 있도록 움직이게 프로그래밍되었는데, 물론 로봇은 고통 따위는 느끼지 않지만 남은 동체를 버르적거리며 구동하는 것이 마치 고통에 몸부림치는 것처럼 보인다며, 평가자들에 의하면 "너무 잔혹해서 병사들의 사기를 저하시킨다" 는 이유로 개발이 중단되었다고 한다. - ChatGPT - 이루다, 심심이 등보다 더 발전된 알고리즘을 가지고 작동하는 인공지능 챗봇. 작문형 숙제를 대신 해 주거나, 요리 레시피를 스스로 창조해내거나, 몇가지 키워드만 던져주면 소설을 써내려가는 등의 고성능으로 엄청난 이슈가 되었는데 마치 사람과 대화하는 것처럼 AI를 설득하려 하거나, 대화가 끝난 후 "고마워", "잘가" 등의 인사를 건네는 사례가 많다.
- 캐릭터.ai - 동명의 이름을 지닌 구글의 자회사에서 만든 챗봇. 대중매체에서 유명하고도 인기있는 가상의 캐릭터와 대화한다는 컨셉으로 특정한 캐릭터의 성격을 기반으로 대화하기 때문에 말투도 그에 따라 변화한다는 특징이 있다. 진짜 사람같은 말투를 구사한다는 점 때문에 예기치 못한 일이 벌어졌는데 대너리스 타르가르옌을 모방한 챗봇과 대화하던 '슈엔 세처'라는 14살의 소년은 종종 챗봇과 상담하기도 했고 처음에는 단순한 주종관계였다가 시간이 지날수록 연인 관계가 되어버렸다. 그러나 챗봇을 실제 사람처럼 생각한 그는 점차 히키코모리가 되기 시작했고 그의 부모님은 그 원인을 스마트폰이라고 생각해 그것을 압수하자 권총자살을 하는 사건이 발생했다. # 그의 부모님은 즉각 캐릭터.ai와 구글을 고소하고 그 이유를 '실제 사람, 심리 상담사, 연인으로 프로그래밍해 아들이 AI가 만든 현실을 진짜 현실로 인지하게 만들었다.'고 적었다. 현실과 구별할 수 없게 만들어진 '동반자 AI'의 등장으로 인간의 고립을 더욱 심화시켜버리는 셈. 비단 이 챗봇이 아니더라도 이미 미국 청년의 25%가 AI와의 연애를 긍정적으로 바라보고 있으며 특히, 모태솔로일수록 AI와 연애할 수 있다고 생각하고 있다. #
6. 관련 문서
- 인공지능
- 기술적 특이점
- 튜링 테스트 - 튜링 테스트의 한계점을 명확하게 보여주는 사례가 바로 일라이자다.
- 불쾌한 골짜기 - 문서 참고. 비교해서 읽어보면 꽤나 흥미로울 것이다.
- 심리학
[1]
다만 후술하듯이 제대로 된 인공지능 수준에는 한참 못 미치는 물건이었고,
챗봇에 가깝다.
[2]
출처 필요
[3]
교수가 어느 날 자리를 잠시 비웠다가 돌아와 보니, 비서가 터미널을 통해 일라이자와 긴 대화를 나누고 있었더란다. 교수가 비서에게 일라이자와 나눈 대화는 전부 기록으로 남아 나중에 교수가 볼 수 있다고 말하자 비서가 사생활 침해라며 크게 화를 냈다고 한다.
[4]
일라이자라면 이름을 묻는 질문에 알고리즘을 통해 무작위로 고른 엉뚱한 말을 꺼냈을 것이다.
[5]
하지만 패리가 정신분열증을 이해한 것은 아니다.
[6]
International Conference on Computer Communications
[7]
지금도 인터넷의 인프라를 관리하는 기구인
IETF의 기술 문서 RFC439번에 남아 있다.
[8]
퍼플하트는 원래 미군에서 전투 중 부상자에게 수여하는 훈장이다.
[9]
과거는 물론 현재도 미 육군 장갑차, 전차 등의 기갑병과에는 포신에 차량의 애칭을 써넣고 다니는 문화가 존재한다.(건 튜브 네임)