mir.pe (일반/어두운 화면)
최근 수정 시각 : 2024-12-06 21:55:41

일라이자 효과

1. 개요2. 유래3. 일라이자의 알고리즘4. 파장5. 대표 사례6. 관련 문서

1. 개요

ELIZA effect

정신과 의사를 묘사한 프로그램이 환자와의 대화 내내 의미 없는 반응을 보였지만, 환자들이 그를 진짜 의사로 착각하고 대화를 나눈 뒤 위안받는 효과. 여기서 더 나아가면 내부 전원으로 움직이는 로봇에, 그리고 컴퓨터 인공지능이 보여주는 '인간다운' 행위에 무의식적으로 인격을 부여하는 현상을 가리킨다.

2. 유래

1966년, 요제프 바이첸바움이라는 컴퓨터 공학자가 MIT에서 일라이자라는 인공지능을 만들었다.[1] 바이첸바움 박사가 일라이자를 만들 때 모델로 삼은 것은 심리학자 칼 로저스가 1940-1950년대에 개발한 상담 치료 이론인 환자(내담자) 중심 상담 이론이었는데, 환자 중심 상담 이론에 따르면 상담 치료자는 환자의 행동에 대해 가치 판단을 하는 대신, 긍정적인 태도와 공감을 나타내면서 환자가 스스로 문제점을 깨달을 수 있는 편안한 환경을 만드는 것을 목표로 해야 한다. 여기서 중요한 것이 '환자의 행동에 대해 가치 판단을 하지 말 것'이라는 말인데, 그 말은 상담 치료자가 하는 일이 환자 스스로 이야기를 할 수 있는 환경을 조성하는 것 외에는 별로 없다는 뜻이기도 하다.

바이첸바움 교수 역시 그 이론의 한계점을 알고 있었는지, 아니면 ' 인공지능인 것을 안 들키면 좋은 거고 들켜도 별로 문제 없고' 하는 생각으로 만든 건지는 몰라도 이름 역시 당시 인공지능 수준의 허술함을 잘 보여주는 이름인데, 일라이자라는 이름은 희곡 < 피그말리온>의 주인공 일라이자 둘리틀(Eliza Doolittle)에서 따왔기 때문이다. 간략히 설명하자면 일라이자는 훈련 끝에 완벽한 상류 계급 악센트로 말하게 되었지만, 정작 대화의 내용은 자신의 출신 계급을 벗어나지 못하는 촌극을 보여준다. 용인발음으로 상스러운 욕설을 하는 것과 정신과 의사같은 말투로 아무 의미도 없는 말을 하는 것 사이에는 모르는 사람이 들으면 대단해 보인다는 유사점이 있다. 그렇기에 자기가 만든 인공지능의 한계를 누구보다 잘 알고 있었던 바이첸바움 교수도 하도 많은 이름 중에 피그말리온이라는 희곡에서, 그것도 말투를 가르치는 헨리 히긴스가 아니라 말투를 배우는 일라이자 둘리틀에서 따왔을 것이다.

3. 일라이자의 알고리즘

이름의 유래에서 알 수 있듯이 환자 중심 상담 치료법이 환자의 발화를 계속해서 이끌어 내는 데 주목하는 방식이니, 일라이자가 한 말 중 거의 대부분은 환자가 한 말 그대로 되돌려주는 것에 불과하다. 실제 일라이자를 재현한 프로그램이 답변을 만드는 규칙 중 일부이다. [2]
* 만약 환자가 "나는 X가 필요해요"라고 말하면 다음 중 하나로 대답한다.
1. 왜 X가 필요한가요?
1. 만약 X가 있다면 정말 도움이 될까요?
1.정말 X가 꼭 있어야 한다고 생각하세요?
* 만약 환자가 "나는 X(에)요"라고 말하면 다음 중 하나로 대답한다.
1. 환자분이 X여서 의사를 보러 오셨나요?
1. 얼마나 오랫동안 X였나요?
1. 스스로가 X인데 대해 어떤 기분이 드나요?
* 만약 환자가 "뭐가……?"라고 물으면 다음 중 하나로 대답한다.
1. 왜 물으세요?
1. 답을 듣는 게 어떻게 도움이 될 것 같아요?
1. 환자분은 어떻게 생각하세요?
* 만약 환자가 "미안"이라는 단어를 사용하면 다음 중 하나로 대답한다.
1. 미안해하지 않아도 되는 경우도 많이 있어요.
1. 남한테 사과할 때는 어떤 기분이 들어요?
* 환자가 아무런 규칙도 적용할 수 없는, 이해 불가능한 말을 하면 다음 중 하나로 대답한다.
1. 계속 말씀해 보세요.
1. 정말 흥미롭군요.
1. 알겠습니다.
1. 그래요, 그게 무슨 뜻인 것 같나요?
1. …….
보다시피 꽤나 허술한 알고리즘을 가지고 있는데, 몇 없는 문장은 그렇다 쳐도 빠짐없이 나오는 다음 중 하나로 대답한다는 말이 가관이다. 그렇다, 복불복이다. 이처럼 알고리즘을 알고 나면 굉장히 초보적인 인공지능인데도 불구하고, 일라이자는 미국 전역에서 높은 관심을 불러일으키며 인공지능 역사에 이름을 남기게 된다.

4. 파장

상담을 받는 사람에 대해 아무것도 알지 못한 채 환자의 말을 되받으면서 적절히 공감하는 시늉만 낸 일라이자와 대화를 주고 받은 사람들이 대화에 깊이 빠져들어 일라이자를 진짜 의사로 믿거나, 일라이자와의 상담이 실질적인 도움을 줄 수 있다는 생각을 하게 된 것이다. 심지어 그런 사람들 중에는 바이첸바움 교수가 일라이자의 코드를 짜는 것을 옆에서 지켜봐서 일라이자가 인공지능이라는 것을 잘 알고 있었던 교수의 비서[3]와 제자들도 있었다는 것이다.

이를 접한 정신과 의사들은 심리치료사가 부족한 정신병동에 일라이자를 배치해 정신질환자들을 치료하자는 제안을 할 정도로 호의적인 태도를 보여주었다고 하며, 교수는 단순한 알고리즘을 지닌 인공지능에게 사람들이 진지한 애착을 갖는 것을 보고 거부 반응을 보여주진 않았지만 큰 충격을 받아 일라이자 프로젝트를 접고 인공지능에 대한 근본적인 성찰을 시작했으며, 1976년 자신이 낸 저서 <컴퓨터의 힘과 인간의 이성>에서 '인공지능에게 윤리적인 판단을 맡겨서는 안된다'는 요지의 주장을 펼치게 되는 등 인공지능 비판론자로의 일대 전환을 하게 된다.

1972년, 정신과 의사 케네스 콜비가 인공지능 패리(PARRY)를 만들었는데, 특이하게도 편집성 정신분열증 환자를 흉내내는 인공지능이었다. 패리는 단순히 환자가 한 말 중에서 일부만 바꿨던 일라이자에 비해 패리는 이름과 나이, 결혼 여부 등을 답할 정도로[4] 본격적인 대화가 가능한 알고리즘을 갖고 있었다. 정신과 의사들을 대상으로 패리의 튜링 테스트가 이루어졌다. 일부 의사들이 패리와 실제 환자들을 섞은 그룹을 상대로 텔레프린터로 상담을 진행했고, 나머지 의사들이 이를 기록한 문서를 검토하는 방식으로 이루어졌는데, 패리와 실제 환자를 명확히 구분한 의사는 전체의 48%로, 튜링이 정한 기준에 꽤 근접한 수치였다.[5]

같은 해 패리는 일라이자와도 만나 대화를 나누었는데, 국제 컴퓨터 통신 위원회[6]에서 인터넷의 전신인 아파넷(ARPANET)을 통해 이루어진 상담 기록[7]을 살펴보면 패리가 훨씬 더 수준높은 대화를 보여준다. 대화 마지막에 "아, 이제 더는 못해 먹겠네. 안녕히 계세요."라고 말하는 패리에게 "별말씀을요. 진료비는 $399.29입니다."라고 말하는 일라이자가 백미다.

5. 대표 사례

6. 관련 문서


[1] 다만 후술하듯이 제대로 된 인공지능 수준에는 한참 못 미치는 물건이었고, 챗봇에 가깝다. [2] 출처 필요 [3] 교수가 어느 날 자리를 잠시 비웠다가 돌아와 보니, 비서가 터미널을 통해 일라이자와 긴 대화를 나누고 있었더란다. 교수가 비서에게 일라이자와 나눈 대화는 전부 기록으로 남아 나중에 교수가 볼 수 있다고 말하자 비서가 사생활 침해라며 크게 화를 냈다고 한다. [4] 일라이자라면 이름을 묻는 질문에 알고리즘을 통해 무작위로 고른 엉뚱한 말을 꺼냈을 것이다. [5] 하지만 패리가 정신분열증을 이해한 것은 아니다. [6] International Conference on Computer Communications [7] 지금도 인터넷의 인프라를 관리하는 기구인 IETF의 기술 문서 RFC439번에 남아 있다. [8] 퍼플하트는 원래 미군에서 전투 중 부상자에게 수여하는 훈장이다. [9] 과거는 물론 현재도 미 육군 장갑차, 전차 등의 기갑병과에는 포신에 차량의 애칭을 써넣고 다니는 문화가 존재한다.(건 튜브 네임)