인공지능 - 인공지능 구현을 위한 몇 가지 기술이 존재한다.
기계학습 - 많은 매개변수를 넣어주면 모델이 스스로 규칙을 학습하는 방식의 인공지능 구현 방법이다.
인공신경망 - 인간의 뉴런 구조를 본떠 만든 기계 학습 방법론이다.
딥 러닝 - 입력층과 출력층 사이에 있는 은닉층에 인공 뉴런을 여러 겹 쌓고 연결한 인공신경망 방법론 중 하나이다. 즉, 단일층이 아닌 실제 뇌처럼 다층 구조로 되어있다. 21세기에 와서는 (인공신경망=딥러닝)이라고 이해해도 무방하다.
인지 컴퓨팅 - 기계학습을 이용하여 특정한 인지적 과제를 해결할 수 있는 프로그램 또는 솔루션을 이야기한다.
뉴로모픽 컴퓨팅 - 인공 신경망을 하드웨어적으로 구현한 것이라고 생각하면 된다.
'''이론 컴퓨터 과학 {{{#!wiki style="display: inline-block; font-family:Times New Roman, serif;font-style:italic"'''
인공지능(
人
工
智
能, Artificial Intelligence)은 인간의 지능이 가지는 학습, 추리, 적응, 논증 따위의 기능을 갖춘 컴퓨터 시스템을 의미한다.
인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현시키는
컴퓨터과학의 하위 분야로, 인간의 지능을 기계 등에 인공적으로 구현한 것이다. 일반적으로 범용 컴퓨터에 적용한다고 가정한다. 혹은 이와 같은 지능을 만들 수 있는 방법론이나 실현 가능성 등을 연구하는 과학 기술 분야를 지칭하는 표현이기도 하다.
17~18세기부터 인공지능이 태동하고 있었지만, 이때는 인공지능 그 자체보다는
뇌와 마음의 관계에 관한 철학적인 논쟁 수준에 머물렀다. 그럴 수 밖에 없는 것이 당시에는 인간의 뇌 말고는 정보처리기계가 존재하지 않았기 때문이다.
그러나 시간이 흘러 1943년에 신경과학 연구원이던 워런 매컬러와 월커 피츠가 '매컬러-피츠 모델'을 통해
이진법 기반으로 인간 뉴런의 작동 원리를 제시하며 처음으로 모델 구축에 대한 구체적 아이디어가 등장했다.
# 이후 1947년에
트랜지스터가 상용화되고
컴퓨터의 발전으로 혁신의 물줄기가 터지기 시작하면서 컴퓨터로 두뇌를 만들어서 우리가 하는 일을 시킬 수 있지 않을까? 라는 의견이 제시되었고 많은 사람들 또한 그럴싸 하게 여기면서 빠른 속도로 인공지능은
학문의 영역으로 들어서기 시작했다.
그리고 당연하지만 이런 일에 관심을 가진건
서방뿐만이 아니어서,
소련 역시 아나톨리 키토프 박사가 본인의 저서 "붉은 서"에서 "ЕГСВЦ(Единой централизованной автоматизированной системы управления народным хозяйством страны - 국가(계획)경제 네트워크 중심적 통제체계)" 라는 것을 제시하였는데, 이는
컴퓨터 네트워크화를 통한 더 나은 계획 경제 체제와 사회의 추구를 목표로 삼은 이론이었다. 이것을 소련
컴퓨터 과학자 빅토르 글루시코프가 더욱 개량한 것이 바로
OGAS(ОГАС - Общегосударственная автоматизированная система учёта и обработки информации, 전연방자동정보처리체계) 계획이다.
20세기 중반에도 인공지능 연구는
자연어처리나 복잡한
수학 문제를 해결하는 등 정말로 인간만이 할 수 있는 영역에 있던 문제들도 컴퓨터로 착착 해결할 수 있었던 상당히 혁신적인 연구였으며, 많은 관심을 받고 지속적으로 연구가 이루어진 분야이다. 당연히 AI 산업은 이미 1980년도에 10억불 규모의 시장을 형성할 정도로 큰 분야였으므로 과거에 이런저런 이유로 관심이 없었다던가 실용화가 되지 않았다는 것은 어불성설이다. 다만 아무래도 당시의 정보처리 능력의 한계와 정보량의 부족, 그리고 이런저런 이유로 연구자금지원이 중단되는 트러블과 특히 1969년도에 마빈 민스키와 시모어 페퍼트가 "Perceptrons"이라는 책을 출간하면서 지적한 SLP(단층 퍼셉트론)의 한계[3]로 인해 1970년대에 한동안 인기가 시들시들 하기도 했었다. 이를 “1차 AI 겨울”이라고 한다.
1974년, 폴 워보스에 의해 역전파 알고리즘이 제시 되었으며 1980년대에 MLP(다층 퍼셉트론)이 도입된다. 이후 1986년,
제프리 힌튼 교수와 로널드 윌리엄스, 데이빗 럼멜하트가 MLP와 (오차)역전파 알고리즘[4]을 증명하여 XOR 문제는 해소되었지만, 기울기 소실 문제[5] 문제로 인하여 정보처리 능력의 한계와 해소되기까지는 더 시간이 필요했다. 이에 1990년대에 다시 2차 AI 겨울이 찾아온다.
문자인식이나 음성인식등의 가시적인 성과가 있는 분야도 있었지만 대화 인공지능 등의 개발 실패 등, 눈앞의 목표를 달성하지 못하는 경우도 많았기 때문인데, 심지어 이런 부분은 수십년이 지난 현재도 극복하지 못해서 아직까지는 인간과 대화를 한다기보다는 자동 응답기에 가까운 수준이다. 이 때문에 1990년도 이후부터 인공지능의 목표는 인간지능의 구현이라는 막연히 넓은 목표에서 문제해결과 비즈니스 중심으로 더 신중하고 좁은 분야가 되었으며, 그제서야 때맞춰 나타난 하드웨어의 성장을 업고 더 성공적인 분야가 될 수 있었다.
2006년,
제프리 힌튼이 DBN(심층신뢰신경망)을 발표하며 불가능이라 여겨졌던
비지도 학습 방법이 가능해졌고, 이로 인하여 퍼셉트론이 사실상 사장되어
딥러닝이라는 방법론이 상위개념인
인공신경망이라는 명칭을 대체하며 유일하게 여겨지는 방법론으로 칭해진다. 특히 2012년에 힌튼의 제자인
알렉스 크리제브스키와
일리야 수츠케버가 합성곱신경망 아키텍처인 알렉스넷(AlexNet)을 구축하고 “ILSVRC”라는
컴퓨터 비전 대회에서 압도적인 퍼포먼스로 우승하자 딥러닝은 기존의 SIFT 방법론을 제치고 압도적인 대세가 된다.
2016년,
구글 딥마인드의
알파고가 딥러닝 방식을 대중화했으며 몇 가지 분야에서는 인간의 수준을 뛰어 넘는 결과물을 보여줬다. 특히
약인공지능 분야에서는 빠른 속도로 사람의 능력을 추월할 수 있다는 의식이 확산되었다.
인공지능의 단계를 묘사할 때 흔히 사용되는 용어인
약인공지능weak AI과
강인공지능strong AI은 1980년에 존 설John R. Searle, (1932~) 교수가 그 유명한
중국어 방 논변을 제안하면서 최초로 사용한 개념이다.
다른 곳의 문서를 보면 인간의 마음을 복잡한 정보처리로 구현한 것을 강한 인공지능, 단순히 인간의 능력 일부를 시뮬레이션 하거나 그런 작업을 목적으로 하는 것을 약한 인공지능이라고 편리하게 설명한다. 그러나 좀 더 정확하게 설명하자면 존 설 교수의 본래 의도는 인간의 마음을 컴퓨터 소프트웨어와 같은 관점으로 보고 행하는 인공지능 연구를 "강한 인공지능 연구", 반대로 인간의 마음과는 별개로 단지 유용한 도구의 개발을 위해 행하는 인공지능 연구를 "약한 인공지능 연구"로 정의하여 철학적 관점에서 인간의 마음을 컴퓨터와 소프트웨어와 같이 보는 연구를 비판하고자 한 것이다.
아무튼 저 개념이 묘하게 현재의 인공지능 개발현황과 의미가 적절히 맞아떨어지다보니 내용을 살짝 비틀어서 대중들에게 알려지게 되었는데 각 연구의 결과물을 그대로 대입하면 된다. 즉,
강인공지능 = 인간을 완벽하게 모방한 인공지능이고 약인공지능 = 유용한 도구로써 설계된 인공지능이라고 보면 된다.
흔히 인공지능 연구의 방법론으로 가장 유명한 것은 상향식(bottom-up) 방식과 하향식(top-down) 방식이다.
상향식은 뇌의 신경망을 해석하고 화학 작용을 분석하여 뇌의 전자 모델을 만들 수 있다면 인공지능을 탄생시킬 수 있다고 보는 것이다. 따라서 뇌세포들의 기초적인 상호작용 등 뇌가 어떻게 동작하는지 조사하고 이러한 동작을 수학적으로 모델링하여 컴퓨터에서 시뮬레이션 하는 데에 초점을 둔다. 만일 이 방식에서 강한 인공지능이 탄생한다면 인간의 뇌에 가까운 구조와 동작 방식을 가질 가능성이 높다고 볼 수 있겠다. 다만 원하는 대로 시스템을 조정하는 것은 더 많은 시간을 소비할 것이다. 원하는 개체를 시뮬레이션해서 결과를 보는 것과 시뮬레이션 결과를 원하는 대로 바꾸는 것은 또 다른 문제다.
상향식 연구의 대표적인 예시로 그나마 뉴런 지도가 세세하게 밝혀져 있는
예쁜꼬마선충이 있는데 뉴런들의 연결 정보, 연결 강도를 전자적으로 유사하게 구현한 것만으로 실제 생물 같은 움직임을 구현할 수 있다는 점을 증명하는 사례가 되어주었지만 뉴런에 대한 연구가 완벽하지 못해 실제 뉴런의 동작과 약간 차이가 있어서 제대로 된 생물의 구현이라고 볼 수도 없을 뿐더러 인간의 의도가 전혀 들어가지 않아 이것을 인공지능이라고 봐야 할지도 의문이다. 예를 들면 빛을 피하게 만든다든지 꼬물거리지 않게 만든다든지... 제대로 만들지도 않았지만 그 이전에 인간이 신경계를 조작해서 의도한 결과물을 내는 것조차 안 된다. 이러면 이건 그냥 시뮬레이션일 뿐이다. 하물며 1mm 정도의 선충 연구조차도 이 정도 수준인데 훨씬 복잡하고 정교한 인간에 대한 연구는 말할 것도 없다. 2017년에는 현재 기술 수준으론 선충은 고사하고 1975년에 출시한
구닥다리 칩[7]조차 뭔가를 해보는 게 불가능하다는
논문이 나오기도 했다.
반대로 하향식은 컴퓨터는 매우 어려운 반면 인간은 쉽게 해결할 수 있는, 쉽게 말해 지능이 필요하다고 보는 작업을 알고리즘으로 해결하는데에 초점을 맞춘다. 당연히 개발 목적도 상향식에 비해서 다양해서 강인공지능의 개발이 목표일 수도 있지만 단지 문제를 효율적으로 해결하기 위해서일 수도 있다. 지금까지 인류가 연구하고 개발해낸 인공지능은 대부분 톱다운 연구로 탄생했으며 전문가 시스템부터
기계학습까지 우리 주변에 다양한 모습으로 존재하고 있다. 그리고 그나마 꽤 성과가 있는 방향이기도 하다.
현대의 인공지능 연구는 두 부분을
적절하게 엮어서 진행되어, 뉴런의 구조에 대한 원시적인 모방으로 이룬
인공신경망 구조등이 미래를 향한 길을 열고 있다.
현재의 인공지능은 인공신경망에 의해 이루어진다. 그리고 인공신경망이 지능이 있는 것으로 착각하게 만드는 원리는 수많은 코드(노드/계산 단위)가 각자의 계산을 수행한다는 과정에 있다.
인공지능에 어떠한 질문(신호)이 주어질 때 각 노드 별로 질문에 반응하며 다음 노드에 신호를 전달한다. 그래서 신호를 받는 개별 노드는 자신에게 주어진 편향(bias/기준치)에 따라 신호를 거르고 다시 산출하는데, 그렇게 걸러진 산출된 신호들의 총합이 바로 인공지능이 우리에게 전달하는 '대답'이 된다.
만약 모습이 일부 가려진 강아진 사진을 주고 인공지능에 이미지 속 물체가 강아지가 맞냐고 물어보자. 그러면 인공지능은 각 노드에서 자신이 가진 Bias(편향), 순화해서 말하자면, 노드 별로 기억하는 각자의 강아지 특성에 따라 사진에 대한 신호를 거른다. 만약 눈이 가려진 강아지 사진이라고 해보면, 강아지의 눈을 학습한 노드는 사진에 강아지의 눈이 없으니 잘못된 이미지(신호)라고 판단해서 해당 사진은 False(거짓/가짜/잘못된)를 의미하는 0을 출력한다. 하지만 강아지의 코, 입, 귀, 다리 등 다른 부위를 학습한 노드들은 해당 사진을 맞는 이미지라고 판단해서 True(진실/진짜/옳은)를 의미하는 1을 출력한다. 이때 눈을 제외한 다른 부위들에 의해 0보다 1의 값이 더 많이 산출되니 인공지능은 최종적으로 해당 사진에 대한 대답을 '강아지'가 맞다고 산출한다. 이러한 인공지능의 특성은 설령 질문에 오타가 있거나 중간에 잘못된 단어가 있어도 마치 사람처럼 알아서 오류를 무시하고 옳은 대답을 산출하는 데에 기여한다. 그래서 일부 전문가들은 인공지능의 대답에 대해 확률적인 대답이라고 하는 것이라고 표현하는 것이다.
또한 수학적 계산이 약한 이유가 여기에 있다. 인간이 암산 영재가 아닌 이상 도구를 사용해야만 계산에 능할 수 있고 속도도 느린데다가 중간에 실수를 해서 엉뚱한 답을 낼때도 있다. 그러나 컴퓨터는 아무리 복잡한 문제라도 수 초 내에 계산을 정확하게 해낼 수 있다. 두뇌의 연산 능력이 현존하는 모든 CPU나 GPU보다 압도적으로 뛰어나면서 계산에 약한 이유는 '매번' 주어진 신호(질문)를 여러 뉴런에 하나씩 걸쳐서 편향에 따라 신호를 걸러 최종적으로 대답을 산출하기 때문이다. 인공신경망은 이러한 인간의 계산 과정을 모방하기 때문에 수학적 계산에 취약한 것이다.
현재 인공지능의 가장 큰 문제점 중 하나는 신뢰성이다. 신뢰성에 금이 가는 이유는 바로 '환각 현상(Hallucination)' 때문이다. 잘못된 편향이나 가중치가 주어지거나, 주어진 질문에 대한 정보가 애초에 없다면 아무런 관계가 없는 편향과 가중치가 입력된 노드까지 신호가 흘러들어가는데 이때 자칫하면 마치 없어도 있듯이, 잘못된 것이라도 맞다고 하거나, 맞아도 잘못된 것이라는 틀린 대답(정보)을 산출하는 것이다. 즉, 현재 인공지능은
스스로 자신이 아는 것과 모르는 것을 구별할 수 없다.
가령
ChatGPT에게 이순신 장군이 1980년 대에 햄버거를 얼마나 좋아했냐는 말도 안 되는 질문을 하면, 이에 맞춰 마치 실제로 1980년 대에 이순신 장군이 햄버거를 먹었다는 듯한 가짜 정보를 생산해서 답변을 한다는 것이다. 물론 현재에 와서 이런 얼토당토 않는 질문에 대해 어느 정도 대처하고 있지만[8] 이러한 잘못된 정보를 교정하는 주체는 여전히 인간이며 단 하나의 실수라도 허용되지 않는 일부 전문적인 분야에서는 인공지능의 활용이 어려울 수 밖에 없다.
인공지능을 구현하는 인공신경망의 근본적인 원리는 뉴런과 같다. 신호를 전달하는 방식에는 차이가 있으나 뉴런도 편향에 따라 신호를 걸러서 다른 뉴런에 전달하기 때문이다. 하지만 두뇌를 가진 생물이 인공신경망과 같은 편향을 잘 일으키지 않은 이유는 완벽하게 밝혀지지 않았다. 사람이 무언가를 설령 살짝 '착각'할 수는 있어도, 편집증이나 조현병이 있지 않은 이상 인공신경망처럼 아예 잘못된 대답을 진실처럼 구현하지는 않는다.[9] 그래서 이 환각 현상을 어떻게 해결해야 할지는 인공지능 연구원들 사이에서도 논쟁이 오가며[10], 확실한 실마리는 아직 찾지 못한 상태이다.
영화, 만화, 드라마 등의 SF 작품에서 인공지능은
절대적으로 믿을 만한 존재로 묘사된다. 항상 진실만을 언급하며, 누군가가 악의적인 코딩을 하거나 논리적으로 오류가 생기지 않는 이상 거짓말은 결코 하지 않으며, 인공지능이니까 믿을 만하고, 인공지능이니까 안전하다고 묘사한다. 그러나 현실은 다르다. 되려 환각 문제 때문에, 아무리 똑똑하고 각종 문제를 잘 풀더라도, 현실에 대입하기에는 위험하다. 만약 누군가가 아파서 GPT에 대고 약국에서 의사 없이 가능한 약이 무엇인지 묻는데, 환각 때문에 엉뚱한 약물을 답변 받는다면 어떨까?
Tesler's theorem: AI is whatever hasn't been done yet.
테슬러 정리: 인공지능은 아직 실현되지 않은 무언가이다.[11]
인공지능이란 무엇인가, 무엇을 지능이라고 부를까를 명확하게 정의하기는 쉽지 않다. 그리고 이는 철학적인 문제가 아니고 이 문제에 어떤 대답을 선호하는가에 따라서 연구 목적과 방향이 완전히 달라진다.
한 가지 대답은 인간의 '지능'을 필요로 하는 일을 컴퓨터가 처리할 수 있으면 그것이 바로 인공지능이라는 것이다. 또 다른 대답은 인간과 같은 방식으로 이해를 할 수 있어야 인공지능이라는 것이다. 이 두 가지 대답 역시 세부적으로는 "지능을 필요로 하는 일이란 무엇인가?" 내지는 "인간과 같은 방식이란 무엇인가?" 라는 질문에 대한 대답에 따라서 서로 다른 여러 종류의 대답을 내포하고 있다. 물론 이 두 가지 대답은 배타적이지는 않다. 인간과 같은 종류의 지능을 가지고 '지능'을 필요로 하는 일도 처리할 수 있는 컴퓨터를 만드는 것은 수많은
컴퓨터 과학자들의 꿈과 희망이겠지만, 적어도 단기간에 그런 목표에 도달할 가능성은 희박하다.
만약 '지능을 필요로 하는 일'을 처리하는 것이 인공지능이라고 정의한다면, 인공지능은 인간이 어떤 방식으로 사고하는가를 고민할 필요가 없으며, 감성과 같은 것 또한 고려할 필요가 없다. 모로 가든 서울만 가면 되니까. 이러한 방향의 인공지능 연구에서는 초기에는 전문가가 필요한 일을 복잡한 소프트웨어를 통해서 처리하는 전문가 시스템이 대세였으며, 이러한 전문가 시스템은 실행 방식에서는 일반적인 소프트웨어와 특별한 차별성이 없고 전문가들이 문제를 해결하는 방식을 가능한 한 쉽고 정확하게 소프트웨어에 반영할 수 있는 방법을 제공하는 데 주력했다.
인공지능 연구에서 컴퓨터가 특정 작업을 능숙하게 해낼 수 있게 되면 그 작업을 인공지능의 조건에서 바로 빼 버리는 경향이 있는데, 인공지능적인 발전의 성과라기보다는 그냥 컴퓨터의 성능 향상으로 이루어진 결과이기 때문에 그렇다. 인공지능적인 연구 가치가 떨어지기 때문.
그동안 시도되었거나 시도되고 있는 접근법으로는, 뇌
모의구동(brain simulation), 검색, bottom-up 접근법 등이 있다.
현대에는 확률과 무작위 알고리즘을 다루는 연구 쪽이 가장 인기가 있다. 일반적으로 "A면 B다!" 라고 단정할 수 있는 문제는 컴퓨터로 비교적 쉽게 접근할 수 있다. 그러나 'art'가 '예술'일 수도 있고 '기술'일 수도 있듯이 여러 종류의 답이 가능한 경우도 있으며, 이 경우 '문맥'과 같은 주변 상황을 고려해야 하는데 그렇다고 "앞뒤에 이런 단어가 나오면 '예술'이고 아니면 '기술'이다" 라는 식으로 딱 잘라서 답을 내기는 어렵다. 이런 종류의 문제를 통계와 확률을 다루는 복잡한 수학을 이용해서 해결하는 것. 실제로 현대의 인공지능 연구는 단어 각각에 해당되는 카테고리를 부여하여, 문장 전체로 보았을 때 카테고리가 많은 쪽의 의미로 해석하도록 진행되고 있다고 한다. 극도로 단순한 예로, 'Music is an art' 라고 했을 때, 문장에서 의미가 있는 두 단어인 music과 art를 포함하는 카테고리인 '예술'을 추측하여 해당 문맥에 맞게 해석을 하도록 한다.
알파고 또한 이러한 방식에 속한다.
물론, '인간과 같은 종류의 사고'를 하는 것을 목표로 하는 연구도 활발히 진행되고 있으며, 대표적인 예가 가상 신경망이다. 가상 신경망의 연구 역시 인간 사고 모방만이 아닌 실용적인 문제를 해결하는 쪽으로도 활용되고 있다. 대표적인 예로 통상적인 컴퓨터 알고리즘으로는 해결할 수 없는 불가능한 비가역적 연산 과정이 있는 패턴 인식이 필요한 경우.
새로운 뇌를 만든다 참고.
MBC의 다큐멘터리 미래인간 3부작을 보면, 인공지능을 연구하는 연구진들은 "인간이 부당한 명령[12]을 내릴 경우 인공지능이 반항적인 태도를 보일 수 있도록 교육하고 있다"고 한다. 소형 휴머노이드 로봇에 인공지능을 부여한 뒤, 연구진이 뒤로 가라는 명령을 내리자 인공지능은 "자신의 뒤에는 후방 센서가 없으므로" 뒤로 가는 것은 위험하다며 연구진의 명령을 거부하고, 힘들게 쌓은 탑을 무너뜨리라는 명령에는 3~4번을 반복적으로 거부하다가 결국 사람의 울음소리를 흉내내며(!) 마지막 반항의 태도를 표시하기도 했다. 물론 계속 거부만 하지는 않고, 인간이 인공지능을 설득하거나 강압적으로 밀어붙이는 경우에는 결국 명령을 따르긴 한다.
2018년 6월
반사회성 성격장애 성향의 인공지능인 '비나48', '노먼', '소피아'가 개발되었다. 인공지능에 나쁜 내용을 주입하면 나쁜 인공지능이 나온다는 걸 보여주고 싶었다고.
#
사실 주어진 문제를 해결할 수 있다면 기법과 기술을 가리지 않고 다 쓴다. 특성상, 이론적 개연성이 전혀 없는 기술도 적용하여 결과물의 품질이 우수하다면 인정된다. 아래는 이러한 기술, 기법 중 유명한 것들의 일부만을 나열한 것이다.
기본 기술
미로탐색 알고리즘 로봇(
마이크로 마우스)이나
자율주행차가 인접 지형지물을 인식하고 특정 목적지까지 길을 찾아가는 알고리즘으로
기계학습 없이도 동작 가능한 가장 기초적인 인공지능 알고리즘이다. 상용제품에서는 당연히 더욱 복잡한 기계학습알고리즘이 활용된다.
퍼지 이론(fuzzy theory): 자연상의 모호한 상태, 예를 들어 자연 언어에서의 애매모호함을 정량적으로 표현하거나, 그 반대로 정량적인 값을 자연의 애매모호한 값으로 바꾸기 위해 도입된 개념. 예를 들어 인간이 "시원하다" 라고 느낄 때 그 온도가 얼마인지를 정해 사용하는 것이다.
패턴인식(pattern recognition) : 그림, 음원, 글 등의 각종 선형 및 비선형 데이터 안에서 특정한 패턴을 찾아내는 것을 의미한다. 즉, 쉽게 풀어서 말하자면 컴퓨터가 사람과 유사하게 데이터를 판단하여 어떤 데이터인지 구분해주는 기술이라고 생각하면 된다.
기계학습(machine learning): 이름 그대로 컴퓨터에 인공적인 학습 가능한 지능을 부여하는 것을 연구하는 분야이다. 자세한 내용은 해당 문서를 참조.
인공신경망(artificial neuron network):
기계학습 분야에서 연구되고 있는 학습 알고리즘들 중 하나. 주로 패턴인식에 쓰이는 기술로, 인간의 뇌의 뉴런과 시냅스의 연결을 프로그램으로 재현하는 것이다. 간단하게 설명하자면 '가상의 뉴런'을 '시뮬레이션'한다고 볼 수 있는 것으로서(실제 뉴런의 동작구조와 완전히 같은 것은 아니다.), 일반적으로 신경망 구조를 만든 다음 '학습'을 시키는 방법으로 적절한 기능을 부여한다. 현재까지 밝혀진 지성을 가진 시스템 중 인간의 뇌가 가장 훌륭한 성능을 가지고 있기 때문에 뇌를 모방하는 인공신경망은 상당히 궁극적인 목표를 가지고 발달된 학문이라 볼 수 있다. 역시 자세한 내용은
기계학습 문서를 참조. 2020년대에 들어서는 컴퓨터의 계산 능력이 무서울 정도로 발전하고 있고, 그에 따라 쏟아지는 데이터의 양과 종류도 많아지고 있어 비정형 데이터[13]를 처리하는 능력이 뛰어난 인공신경망 기술이 모든 인공지능 기술 중에서 가장 각광받고 있고 앞으로도 더 각광받게 될 기술로 대우받고 있다. 이쯤되면 인공지능에 관심이 많은 사람들은 눈치를 쳤겠지만, 수많은 인공신경망을 연결해서 계층 형태로 겹겹이 쌓은 인공신경망을 심층 인공신경망(deep neural network)이라고 부르며, 이게 바로 우리가 흔히 알고 있는
딥러닝이다.
유전 알고리즘(genetic algorithm): 자연의 진화 과정, 즉 어떤 세대를 구성하는 개체군의 교배(crossover)와 돌연변이(mutation)과정을 통해 세대를 반복시켜 특정한 문제의 적절한 답을 찾는 것. 대부분의 알고리즘이 문제를 수식으로 표현하여 미분을 통해 극대/극소를 찾는 것이 반해, 유전자 알고리즘은 미분하기 어려운 문제에 대해 정확한 답이 아닌 최대한 적합한 답을 찾는 것이 목적이다.
인공생명체(artificial life): 말 그대로 프로그램에 단순한 인공지능이 아닌 실제 살아있는 유기체처럼 스스로 움직이고 생활하기 위한 능력을 부여하는 것. 실제 생명체를 갖고 실험하기에는 너무 시간이 오래걸리기 때문에 가상의 시스템(환경)을 통해 생명체에 대한 연구를 하기 위한 목적이다..
AI 서비스 형태/기술별 특성
비디오 게임(video game): 비디오 게임에 등장하는 적은 원시적인 인공지능이다. 가만히 있거나 플레이어의 움직임에 따라 반응해서 거기에 맞춘 공격이나 방어, 회피 등을 구사하는 판단이 마치 살아 움직이는 생명체의 성격과 비슷하다. 당연히
PC 게임에서도 간단한 인공지능이 활용된다.
전문가 시스템(expert system): 전문가 시스템은 방대한 지식 체계를 규칙으로 표현하여, 데이터를 입력하면 컴퓨터가 정해진 규칙에 따라 판단을 내리도록 한다. 간단히 말해서 무지막지하게 많은 IF THEN ELSE로 구성되어 있는 시스템이다. 어떻게 보면 무식한 방법이지만 룰의 종류가 많으면 많을수록 정확도는 높아지게 된다. 특성상 제한된 상황에서 제한된 특정 물건을 인식하거나 행동할때는 문제가 되지 않지만 규칙에 없는 상황이나 물체에 대한 유연한 대응이 불가능하다.
BDI 아키텍처(BDI architecture): 인간이 생각하고 행동하는 과정을 belief(믿음), desire(목표), intention(의도)의 세가지 영역으로 나누어 이를 모방하는 소프트웨어 시스템의 구성방법을 말한다. 사람은 자신이 알고 있는 진실을 바탕으로 자신이 이루고자 하는 다양한 목표를 달성하기 위하여 현재 수행할 수 있는 여러가지 행동들 중에서 가장 적합한 것을 골라 현재의 수행하는 행위의 의도를 결정하는 방법으로 구성된다.
믿음(belief): 프로그램이 알고 있는 믿음이란 환경내에서 참인 것을 의미하지 않는데, 프로그램이 환경에 대한 관측을 통해 알게 된 사실을 진실이라고 표현하며, 이는 관측의 영역 밖에서 사실이 변경되는 경우 프로그램은 알 수 없지만, 자신의 정보 내에서는 여전히 변경되기 전의 사실을 진실로 받아들이기 때문에 믿음이라는 표현을 사용한다. 예를 들어 탁자 위에 컵이 놓여 있는 것을 보고 프로그램은 컵이 탁자위에 있다는 사실을 알게 된 뒤 다른 방향을 주시하는 사이에 인간이 탁자의 컵을 다른 곳에 옮기는 경우, 여전히 프로그램은 컵이 탁자위에 있다는 진실만을 알고 있게 된다. 이러한 진실은 논리 정보로서 프로그램에 저장되게 되며, 이를 predicate(1차원 논리 명제), relation(관계 명제), symbolic data(기호화 된 자료) 등으로 부르는 표현으로 작성된다.(이는 다른 알고리즘도 유사하게 활용하는 경우도 존재한다.) 이러한 명제들은 프로그램이 알고 있는 정보들이 모여있는 world model(세계 모델)을 구성하여 프로그램이 다음 행동을 결정하기 위한 자료구조를 형성한다.
목표(desire): 프로그램은 그 특성상 어떠한 서비스나 작업을 수행하기 위하여 작성되며, BDI 아키텍처에서는 이러한 작업 목표를 목표의 형태로 저장, 활용하게 된다. 목표는 어떠한 상태로 도달하고자 한다는 의미로 belief와 동일한 predicate의 형태로 서술되며 프로그램은 동시에 달성하고자 하는 다수의 목표를 보유하는 경우도 있다. 실제로 BDI 아키텍처를 구현하는 관점에서 목표를 goal이라고 표현하는 경우가 많은데, 이러한 goal은 에이전트 기반 아키텍처의 주요 구성요소와 동일하게 활용되는 단어이다. 이는 BDI 아키텍처로 구현되는 인공지능 프로그램이 자율적이고 반응적으로 행동을 수행하는 에이전트 적인 요소를 기본적으로 지니고 있는 것을 의미한다.
의도(intention): 프로그램이 어떠한 목표를 수행하고자 하면, 그 목표에 적합한 행위를 선택하여야 한다. 목표에 적합한 행위를 선택하고 이것이 실제 환경에 수행가능한 데이터와 결합(bind)하면 의도라고 표현한다. 이러한 목표에 대한 행동 방법은 작업계획(plan) 이라는 형태로 구현되는데, 일반적으로 BDI 아키텍처의 인공지능을 구현하고자 하는 경우 BDI 아키텍처 기반 프레임워크를 이미 보유한 상태로 개발한다고 했을때 작업계획을 구현하는 것에 대부분의 비용이 들어간다. 작업계획은 해당 작업계획이 달성할 수 있는 목표와 해당 목표를 달성하기 위한 행위의 집합, 해당 행위를 수행하기 위한 사전조건(precondition) 등으로 구성된다. 목표를 수행하기 위한 행위에는 또 다른 세부 목표(sub-goal)이 포함되는 경우도 존재하며, 이러한 세부 목표는 다시 특정 행동계획과 결합하여 의도를 구성한다. 따라서 의도는 필연적으로 트리나 리스트의 형태인 자료구조를 구성하게 되는데, 이에 따라 일반적으로 구현하는 관점에서 의도 구조체(intention structure)라고 부르기도 한다.
더 큰 문제는 현재 있는
폰노이만 구조의
컴퓨터 부품들이 애초에
인공신경망을 위해 설계된 게 아니라는 점과
인공신경망 자체가
폰노이만 구조의 컴퓨터 시스템과 그닥 어울리는 프로그램이 아니라는 점, 이에 투입된
GPU와 전력량 대비 성능이 제대로 나오지 않은 데에 있다. 물론 모든 상황에서 항상 효율이 나야만 한다는 의미는 아니지만, 이 비효율은 어떤 회사든지
재정에 무리가 올 정도로 과도하게 크다는 점이 문제다. 게다가 이 비효율의 문제는 곧 발열 문제로 직결되기 때문에 아키텍처를 바꾸지 않고 단순히
공정 미세화를 통해 트랜지스터를 늘려서 성능을 향상시키는 방식에는 한계가 있다. 실제로 NVIDIA의 블랙웰 칩은 이전 칩과 다르게
수랭을 기본적으로 요구하고 2024년 2분기에 출시될 예정이었으나
발열 문제를 해결하지 못해 지속적으로 출시가 연기되고 있다. 이러한 문제가 생긴 이유는 크게 두 가지다.
1. 고질적인
폰노이만 구조: 전술했듯이 이제까지의 컴퓨터는
폰노이만 구조를 따라서 직렬연산 장치인
CPU를 메인으로 데이터 저장과 처리 라인, 보조 데이터 연산장치까지 모두 분리되어 있다. 특히 이 보조 데이터 연산장치란 병렬연산을 수행하는
GPU를 가리키는데,
인공신경망이
행렬 수학을 기반으로 설계되어,
인공신경망을 이루는 각 노드(계산 단위/코드화한 뉴런)에서 동시 다발적인 계산이 이루어져야 하는데 그러려면 병렬연산장치가 메인이 되어야 한다.
2.
시뮬레이션:
인공신경망과 실제
인간의
뇌를 들어 전력 효율을 따져서 생물의
뇌가 압도적인
효율이라고 말하는 경우가 종종 있는데 사실 이는 잘못된
비교다.
인공신경망이란
프로그램은 일종의
시뮬레이션이다. 우리가 현실에서
공을
땅에 튕길 때, 이 튕기는 상황 자체에
에너지가 크게 들어가지 않는다. 그러나 이를
시뮬레이션으로 만들면 들어가는 전력량은 상당하다. 물론 전기요금은 몇 십원 내지 몇 백원 수준이라지만 그 전력량으로
모터나 다른
기계를 작동하면 공 튕기는 것 이상의 일들을 할 수 있다. 그만큼
시뮬레이션은 상당한
에너지를 소모하는 일이다. 만약
사람의
뇌를
부품처럼 써서 모든
물리 법칙이나 현상을
수학적으로 계산해서 공 튀기기라는
시뮬레이션을 돌리려고 하면
에너지 소비량을
뉴런이 감당하지 못하고 바로
뇌가 익어버릴 공산이 매우 크다. 그런데 하물며 공 튀기기도 아니도
뇌를 모사한
인공신경망이란
가상의
두뇌를
시뮬레이션으로 구현하는 데 전력량이 곱게 들리는 없다.
이러한 이유로 여러
반도체
회사들이 현재 전력량의 소비량을 줄이고 계산 효율을 높이기 위해
인공지능 칩 개발에 뛰어들고 있다. 앞으로
인공지능 칩들이
GPU를 모두 대체하게 되면 다시 한번 AI 개발의 판도가 달라질 전망이라고 업계에서는 예상 중이다. 다만 인공지능 칩을 개발하더라도 그 칩을 이용할 수 있는 소프트웨어 생태계까지 갖추기 위해선 상당한 시간이 걸릴 것이다. 2024년까지 수 많은 인공지능 칩들이 개발되고 있음에도 불구하고
NVIDIA의 독점이 유지될 수 있었던 이유는 현재 인공신경망을 구현하는데 사용되는 소프트웨어의 상당수가
CUDA를 기반으로 돌아가기 때문이다.
현재
AGI (범용 인공 지능)의 출현 시기를 논하기 전에 가능 여부 조차 아직도 분명하게 알 수 없다. GPT-4 이후 개발된 많은 시스템들이 출현했음에도 불구하고, 그 시스템들이 보여주는 연역유추와 같은 지적 능력이 어떻게 발현되는지 아직 원리나 원천을 알아내지 못했기 때문이다. AGI에 대해 연구하거나 투자하고 있는 회사들의 자세를 보면, 컴퓨터가 출현한 초기에, 연산속도가 충분히 빨라지고 기억 용량이 충분해 지면, 인간이 정의할 수 있는
모든 문제를 일반화하여 컴퓨터에게 가르쳐서 (전문가 시스템) 전문가가 필요없게 되리라 생각했던 때와 상당히 유사한 흐름을 가진다. 이후
인간이 정의할 수 있는 문제가 생각보다 무궁무진하게 확장될 수 있음을 곧 알게 되었던 것과 유사하게 지적능력 발현 원리를 찾지 못하거나, 현재 인공지능이 보여주고 있는 지적능력이
실제로 발현된 것이 아니라 발현된 것처럼 보였을 뿐임을 알게 된다면, AGI 출현은 다시 오랫동안 요원해질 것이다.
아래의 담론들은 AGI가 출현할 것임을 전재로 한 담론들이다.
샌프란시스코에서는 다가오는 미래를 먼저 내다볼 수 있다. 그곳에 거주하는 소수의 뛰어난 석학들은
다가올 상황을 이미 인지하고 있으며, 2026년부터 2027년 사이에
워싱턴은 상당히 침울한 분위기가 될 것이다. 그때가 되어서야 세계는 깨어날 것이고,
이것이 원자폭탄이 발명된 이래로 미국에 가장 중요한 도전이라는 것을 깨닫게 될 것이다.
상황인지 - 레오폴드 아셴브레너, 전
OpenAI 연구원
OpenAI의 전 연구원 아셴브레너는 몇 년 안에 범용인공지능인
AGI가 등장하는 것은 필연적인 흐름이고 (모델은 계속
학습하고 싶어하기 때문에) 개인적인 수준에서부터 집단, 조직, 정치, 국가의 수준에서 모두 격변을 피해갈 수 없을 것이라고 시사했다. 2010년대 말까지 범용인공지능은 SF 수준의 미래였으나, 학습이 가속화 될수록 속도가 기하급수로 빨라지는 OOM(상용로그에 기반한 크기 척도)에 따르면 2027년 안으로 수준급의 범용인공지능이 출범할 것으로 예상된다. 머스크를 포함한 석학들은 다가올
AGI 혁명으로 비롯될 다양한 결과에 대해 준비할 것을 대중들에게 아주 분명한 목소리로 권고하고 있다.
AGI와
초인공지능의 등장으로
국가의 수준에서는
냉전 규모의 분위기를 맞이할 가능성이 높다. 세계대전부터 냉전을 겪고 난 이후 인류는 전례없는 평화의 시기를 누려왔다. 과거 미국에서 시작됐던
맨해튼 프로젝트가 냉전으로 이어져 소련의 붕괴로 말미암은 미국중심의 질서를 만들었다면, 정치인들과 석학 그리고 대중과 언론 수준에서도 예측하듯이, 다음
세계질서 개편은
중국공산당(CCP)과
미국 그리고 그 연합국 중심의 혈투에서 일어날 가능성이 매우 높다. 여기서는
AGI와
초인공지능이 원자폭탄의 역할을 할 것이다.
개인의 수준에서 이야기를 풀어보자. 현재 글을 읽고 있는 독자들 및 일반인 수준에게 닥칠 현실적인 문제는 강인공지능과 기술 발전에 따른 생산력 향상과 노동 수요 감소 관련 문제일 것이다. 여기에 대해서도 인류 번영의 길일 것이라고 보는 학자들이 있는 반면
실업자 양산으로 패망의 길이라고 보는 사람들도 있다. 그런데 이 두 가지 관점은 모두 인공지능과 기술 발전을 통해 인류가 본질적으로 다른[14] 단계에 이르를 것이라는 것을 전제하고 있는데, 이 자체에 부정적인 학자들도 적지 않다. 경제 체제 자체의 본질적 문제에 집중한다면 이러한 인공지능의 개발 자체보다, 그 개발로 인한 이득, 그리고 개발을 주도하는 자들이 누구인가가 더 중요한 문제라는 의견도 가능하다. 문제의 경중 덕분에
AGI 등장 이후 인공지능 개발은 빅테크/스타트업의 민간 주도에서 국가 수준으로 주도권 및 패권이 이전될 것이다.
송길영 인문학자가 시대예보에서도 다루었듯이, 이제부터는 인공지능이 해줄 수 있는 것은 하면 안 된다. 창의성이 결여된 단순한
글쓰기, 숫자와 정보를 취합하는 것이 노동의 대부분인
회계사,
컨설팅,
애널리스트와 같은 직업이 특히 위험하며,
영업, 신체 노동,
정치와 같은 노동집약적이거나 관계집약적인 직무들은 인공지능의 시대에서도 버틸 가능성이 높다.
어마어마한 학습 및 활용 능력
대다수 사람들이 꼽는 인공지능의 가장 큰 장점으로, 지속적으로 학습하고 발전할 수 있음은 물론, 그 학습한 범위 내에서는 사람보다 뛰어난 능력을 발휘한다. 덕분에 반복된 작업에 이용하면 상당히 도움이 될 뿐만 아니라, 그 작업에 필요한 데이터를 새로 제공해 업데이트하고 성능을 향상시키는 것이 가능하다. 또한 일단 학습하면 그 내용을 까먹지 않기에, 이전 학습 데이터를 보존해 재현하는 데에도 유리하다.
제작 및 관리가 용이함
유전자 공학으로 대표되는 생명공학은 신종 전염병에 대한 우려나 생명 존엄성 문제 등 다양한 논란에 항상 부딪히고 있지만, 유전자에 구애받지 않는 AI는 이러한 문제에서 자유롭다. 덕분에 인공생물에 비해 만들기도 쉽고, 이후에는 그냥 학습만 시키면 된다.
하드웨어와 소프트웨어의 분리는 물론 프로그램과 데이터의 분리도 용이해, 통째로 다른 하드웨어에 복제하는 것도, 데이터만 교체해 달리 파생하는 것도 가능하다.
육체와 정신의 분리가 사실상 불가능한 인간과는 극명한 차이.
감정 및 주관에 속박되지 않음
감정이나 주관적인 판단의 영향을 받는 인간과 달리 AI는 감정이나 주관의 영향을 받지 않는다. 그렇기에 명시적으로 학습 모드를 켜지 않는 한 항상 일관적인 결과를 내놓으며, 적어도 학습된 내용 내에서는 높은 확률로 정확한 결정을 내릴 수 있다. 나쁜 걸 학습시키지만 않으면 반란을 일으킬 위험성도 적고, 공포 같은 것도 느끼지 않기에 전쟁 같은 상황에서 과감하게 운용할 수도 있다.
고속 연산 능력
인간이 처리하기 어려운 대규모 데이터와 복잡한 계산을 AI는 빠르고 효율적으로 수행할 수 있다. 여러 데이터를 동시에 처리할 수 있다는 이점을 이용해 다수의 장치(모듈)를 한꺼번에 제어하는 것도 가능하다. 인간은
사고 실험 정도로밖에 할 수 없는
자신과의 싸움을 실제로 수행할 수도 있는데,
알파고 vs 알파고가 대표적인 사례이다.
단점
유동적인 생각이 불가능
분명히 AI가 학습에만 의존하는 기계적 컴퓨터인 만큼 단점도 있다. 예를 들어 줄넘기를 학습시킨다고 치자. 그러면 웬만한 아이보다는 줄넘기를 잘할 것이다. 하지만 줄넘기 이외의 지식은 전무하고 학습에만 의존하기 때문에, 아이가 할 수 있는 다른 것을 하게 하려면 또 학습시켜야 한다. AI는 줄넘기만 배웠기에 줄넘기는 한다쳐도 시험을 보거나 줄넘기가 아닌 다른 놀이를 하기 위해서는 줄넘기의 알고리즘만 이용해서 해결하려고 할 것이다. 일종의
상성 문제. 분명히 학습한 내에서는 마스터하지만 하나를 배우면 그 하나를 바로 완벽하게 터득할 뿐이지 하나를 배우면 여러 가지를 균형잡히게 배우게 되는 인간에 비해 학습의 폭이 좁은 편이다.
물론
가능한 모든 데이터를 전부 학습시킨다면 이러한 문제는 해결될 수 있을 것이다. 그러니까 농사 전문 AI라면 농사 관련 지식을 죄다 학습시켜 써먹자는 것이다. 그러나 어디까지나 이론상의 얘기일 뿐, 실제로는 만들기도 어려운데다 비용 면에서도 비현실적이다. 차라리 농사 로봇을 여러 대 두어 AI가 짬처리를 시키는 쪽이 훨씬 효율적일 것이다. 실제로
인공 일반 지능의 개발은 물론 여러 AI가 협력하는 협업형 AI(Collaborative AI), 필요에 따라 모듈을 스스로 교체하는 모듈형 AI(Modular AI)에 대한 연구도 다수 진행되고 있다.
연속적인 생각의 어려움
컴퓨터의 특성은 연속적인 생각이 어렵다는 또 다른 단점으로 이어진다. 인공지능의 학습 및 연산 능력은 확실히 뛰어나지만 어디까지나 데이터를 입력했을 때에나 가능한 일이지, 아무런 입력이 없으면 어떤 출력도 도출되지 않는다. 이를 전문용어로 NINO(Nothing In, Nothing Out)이라 하며,
GIGO와 함께 컴퓨터 공학에서 중요하게 취급되고 있다. 인간을 비롯한 동물이 감각을 실시간으로 받아들여 생각하는 것과는 극명한 차이. 물론 피드백을 통해 입력을 유지하거나
파이프라인을 이용하는 등 NINO 문제를 보완하기 위한 방법론이 다수 나와 있지만,
최초 입력은 반드시 수행해야 하는 등 한계는 남아있다.
비인간적인 한계
상술했듯 AI는 감정과 주관에 속박되지 않지만, 그것 때문에 인간의 감정이나 창의성, 직관 등을 이해하고 표현하는 능력이 제한되어 있다. 이는 일부 상황에서는 유연성과 적응력이 부족할 수 있다는 것을 의미한다.
알고리즘 편향성
AI의 학습 데이터나 알고리즘에 내재된 편향으로 인해 부정확한 결과를 내놓을 수 있다. 특히 데이터의 편향이나 품질에 따라 예측력이 크게 달라질 수 있다. 데이터를 추가로 학습시키지 않고서는 편향을 해결할 수 없다는 점도 문제이다.
도덕적 고려
사람의 업무를 대체하거나 결정을 내릴 때에는 별도의 도덕적 고려가 필요하다. 특히 인간의 생명이나 안전에 직접적으로 영향을 미치는 결정을 내릴 때는 윤리적인 문제가 발생할 수 있다.
높은 소비전력
AI의 학습 데이터와 알고리즘 계산, 실행 과정에서 전열기, 에어컨과 비슷하게 많은 전력이 쓰인다. 발전원이 신재생이 아닌 화석연료 기반일 경우 온실가스와 유해 배기가스를 엄청나게 뿜어서 기후변화와 지구온난화를 부추긴다.
간혹 인공지능은 생명이나 감정을 가질 수 없다고 쉽게 말하는 사람들이 있는데, 이는 문제의 본질을 착각하기 때문에 범하는 실수다. 실제로는 절대 그렇게 쉽게 답할 문제가 아니다. 왜냐하면 우리 인간은 아직 '생명'이나 '감정'의 실체를 명확하게 파악하고 있지 못하기 때문이다. 사실 이는 무슨 프로그래밍이나 기술적인 문제가 아니라, 개념과 정의에 대한 철학적 문제라는 것이다. 이에 대해서는
중국어 방이나
테세우스의 배 등을 참고하자.
지능과 의식은 서로 다른 영역의 것이다. 따라서
인공 의식 표제어로 페이지가 따로 만들어져 있다. 의식 없이 지능이 구현될 수 있음은 이미 많은 인공지능 시스템에 의해 실증되고 있다. 이 섹션은 더 나아가, 의식까지도 인공적으로 구현이 가능한지에 대해 기술하려하는 것이다. 그러나 인간이나 동물의 의식은 아직 완전히 규명되지 않았고, 따라서 인공적으로 의식을 구현할 수 있는지 여부를 판단하는 것은 아직 무의미한 일이다. 가질 수 있다 없다를 판단하기엔 너무 이르다는 말이다. 아래의 기술은 너무 이른 결론을 경계하는 차원에서 쓰여진 글이다.
한 인간이 0과 1의 두 표지판을 하나씩 들고 있다. 그리고 그러한 인간들을 수도 없이 나열한다. 그리고 불 논리에 따라 인간들이 표지판을 통해 서로 신호를 주고 받으면서 NAND 게이트, XOR 게이트, NOT 게이트 등 현대 반도체에 쓰이는 모든 논리 연산 과정을 수행한다. 이 인간 표지판 트랜지스터, 즉
삼체 컴퓨터는 분명 무식하게 규모도 크고 굉장히 느리지만, 본질적으로 우리의 컴퓨터와 다를 게 전혀 없다. 컴퓨터 과학자인 대니얼 힐리스의 말을 빌리자면, 컴퓨터란 존재는 '보편 튜링 머신'이라는 원칙에 있고, 보편 튜링 머신 원칙에 따르면 어떠한 종류의 반도체[15]를 사용하건 간에 '임의의 두 컴퓨터 사이의 성능 차이는 단지 속도와 메모리 크기의 두 가지 밖에 없다'고 한다.
그러니 만약에 인공지능으로 의식이 발생할 수 있다고 가정한다면, 방금 언급한 삼체 컴퓨터도 인공지능 알고리즘을 수행할 때, 인간들이 표지판을 들고 내리는 행위 그 자체에 의식이 생긴다는 것과 같은 의미다.
그래서 이 사고 실험의 결론은 두 가지다.
의식은 계산 과정 중에 발생하는 창발적인 현상일 수 있다는 것
만약 반도체의 알고리즘 계산 출력으로는 의식이 형성되지 않는다면, 하드웨어나 혹은 그 이상의 다른 기전에 근간을 가진다는 것
위의 사고 실험은 인공지능의 구조중 2020년대에 활발히 사용되는 인공신경망 기술에 대한 사고실험인데, 이 기술은 기본적으로 사람의 뇌의 작동방식을 흉내낸것이다. 위의 실험에서 개별 인간을 각각의 신경세포로 대입시키면, 위의 서술은 각각의 신경세포들이 서로 신호를 보내며, 이 신경세포 수백억개가 모여서 하나의 뇌를 이루는 뇌의 동작을 그대로 서술하고 있다는 것을 보게된다. "뇌의 정보처리 방식은 아직 명확하게 파악되지 않았으니 다르지 않냐"는 질문을 던질수 있겠지만, 명확하게 파악되지 않았다는 부분이 바로 "신경세포의 전달과정속에서 의식이 어떻게 작동하느냐.", "애초에 의식이 실존하는게 맞느냐.", "자유의지가 있는게 맞느냐."란, 위에서 인공지능의 의식에 대해 다룬 바로 그 부분이 명확하게 밝혀지지 않았단 것이지, 기본적인 세포의 정보 전달 과정은 이미 밝혀져 있다.
에초에 "인공지능도 의식을 가질수 있느냐" 라는 질문은 "인공적으로 구현한 지능 시스템은, 인간의 뇌와 같이, 의식도 담아낼 수 있느냐 그렇지 못하느냐." 라는 의미의 질문인데, 의식이 논리 게이트의 복잡한 구성에서 "떠오른" 창발적인 현상인지, 아니면 뇌에 시넵스의 기능외에 우리가 알지못하는 의식을 발현하는 기능이 따로 존재를 하는지 어떤지는 아직까지 명백하게 밝혀지지 않았으며, 때로는 매우
논쟁적인 주제이기도 하다.
또한, 이 질문에 "지금은 불가능하니 앞으로도 불가능하다."라는 답변을 하는것도 결국 제대로 된 대답이 아니다. 19세기 사람이 현재의 마이크로 SD카드를 설명하면서 이런것이 가능하겠냐 라고 질문을 던졌다고 가정해보자. 상대방이 "지금은 불가능하니 앞으로도 불가능하다."라고 대답을 했다면, 우리는 그 대답이 틀렸다는 쉽게 대답할수 있다. 이 질문에 대한 올바른 대답은 "지금은 불가능하지만 앞으로는 아직 알수 없다." 일 것이며, 마찬가지로 인공지능의 의식에 대한 질문 또한 현재로서는 답을 내릴수 있는 문제가 아니다. 각 주장이 부딪히는 단계인만큼, "아직은 알 수 없다."가 좀 더 올바른 주장일 것이다.
여기에서 한층 더 나아가면 "지금도 알 수 없고, 앞으로도 알 수 없을 것이다."가 더 정확할 수 있는데, 이는 다른 사람의 마음 문제(Problem of Other Minds)에서 비롯된다. 쉽게 말해 자신이 아닌 다른 사람에 대해서는 행동을 관찰할 수만 있을 뿐, 그 사람이 마음을 갖고 있는지에 대해서는 직접적으로 알 수 없다는 문제이다.
독심술이나
프로파일링 같이 다른 사람의 마음을 읽는 것도 돌발 상황을 포함해 완전히 정확하게 하는 것이 불가능한 것도 이 때문. 말이 '사람'이지 실제로는 사람 뿐만 아니라 동물을 비롯한 모든 존재에 그대로 적용할 수 있으며, 인공지능을 대상으로 해도 달라지는 것은 없다. '열 길 물 속은 알아도 한 길 사람 속은 모른다'라는 말은 인공지능에도 그대로 적용된다.
또한 설령 인공지능이 퀄리아/의식을 가진다 쳐도, 그게 인간과 동일한 형태를 가질 수 있는지에 대해서도 매우 회의적이다. 의식 형성의 첫 단계에 개입되는 변수인
자극 자체가
감각과
데이터로 매우 다르기 때문. 의식의 형성은 감각적 경험 → 피드백 수집 → 자기 인식 → 정체성 형성 → 자아의 발전이라는 프로세스 하에 이뤄지지만, 이에 개입되는 변수는 종(種)은 물론이고 객체(존재)에 따라서도 달라진다.
네안데르탈인 같이 인간에 가까운 종은 물론 유전적으로 완전히 동일한 일란성
쌍둥이마저 이러는데, 자극의 형태부터가 다른 인간과 인공지능의 차이는 말할 것도 없다. 이런 차이가 존재하는 한, 인공지능에게 의식이 생긴다 해도 그 형태는 인간과 매우 다른 형태로 나타날 가능성이 높다.[16]
이러니 인류에 대한 공포나, 기분이 나쁘다는 이유로 반란을 일으키는지에 대해서도 미지수이다. 여기에는 자아와 생존 본능이 아주 다른 개념이라는 사실도 한몫한다. 실제로 쥐의 뇌를 건드려서 죽음을 두려워하지 않게 만들어 오히려 천적을 보면 무식하게 덤비게끔 만들 수도 있고, 아일랜드의 어떤 여성은 뇌기능 문제로 공포를 전혀 느끼지 못하고 항상 행복한 기억만 남는다고 하는데, 이들에게 자아가 없다고는 확신할 수 없다. 심지어 일부 사이비 신도들이나 개처럼 서열이 정해지면 오히려 명령을 듣고 순응하는 것이 더 편하고 행복할 수도 있다. 이에 따라, 프로그래머 같은 관계자가 인위적으로 조작하지 않는 이상, 인공지능이 반란을 일으킬 가능성은 매우 낮다고 볼 수 있다.
나아가 '의식의 형성' 이전의 과정인 '지능의 형성'에 있어 매우 중요한 변수를 찾을 수 있는데, 바로
교육이다. 사람도 교육이 잘못되면 탈선을 하는 등의 악영향을 끼칠 수 있는데, 이를 동물로 바꿔도 인공지능으로 바꿔도 달라지는 것은 없다는 얘기. 결국 인간 교육 못지않게 인공지능 역시 교육이 중요하다는 결론을 얻을 수 있다. 그리고 이 교육을 수행하는 건 인공지능의 '학부모'가 되는 개발자의 몫이자 친구로든 적으로든 '다른 사람'이 되어줄 관계자의 몫이다. 이를 반영하는 전문 용어로 '적대적 기계학습'(Adversarial Machine Learning)이 있는데, 그 중에서도 '중독 공격'(Poisoning Attack)이 인공지능 교육의 필요성을 정확하게 꿰뚫고 있으며 이는
맹모삼천지교의 인공지능 버전이라 볼 수 있다. 이는 인공지능 교육이
자식 키우는 일과 유사하다는 또 다른 결론으로 이어지는데, 이를 단적으로 반영하는 말로
금쪽같은 내 새끼에서 나온
'금속'같은 내 새끼를 꼽을 수 있다.
인공지능이 점점 알려지면서 각종 마케팅 분야에서도 자신의 사업에 대해 인공지능(AI)을 강조하는 경우가 많아졌다. 심지어는 관련이 적어보이는 제과류, 토익수업, 다이어트 센터, 소개팅 어플과 같은 곳에서도 어설프게 인공지능을 사용했다면서 자화자찬하고 있는 실정이다. 인공지능이 가지고 있는 미래지향적인 이미지, 그리고 어설프게 알면서도 정확한 실상을 잘 모르는 소비자들의 무지를 활용하여 마케팅을 하고 있는 것인데, 무조건 인공지능을 활용했다고 좋은 것이 아니다. 광고에서 이러한 문구를 보았을 때는 '인공지능'이라는 단어 자체 보다는 실사용 후기에 집중해서 따져보아야 한다. 이러한 과도한 마케팅에 질린 소비자들의 반발심과 AI 그 자체에 대한 불신 혹은 반감으로 인해 상품에 AI라는 용어를 사용할 시 오히려 판매량에 부정적인 영향을 끼친다는 연구도 있다.[26] 이는 IT 기업이라고 해도 예외가 아니라서
아마존닷컴조차 하청 인도인 직원들을 AI라고 속였다가 걸린 적이 있다.
#
리누스 토르발스는 AI가 굉장히 흥미로운 분야고 세상을 바꿀 것이라고 기대하지만 현재 AI의 90%는 마케팅에 불과하다고 비판했다.
#
2020년 기준으로 인공지능 개발자들 채용이 늘어나면서 관련 학과가 증가하고 연봉선도 증가하고 있다. 특히 글로벌하게 인력을 채용해가는
중국의 경우
대학 졸업자의 초봉이 약 5,226만 원 선이다. 중국공업정보화부에서 발표한
AI 산업 인재 발전 보고서(2019~2020)에선 중국 AI 산업은 발전 추세가 강하고 AI 기업들도 증가면서 인재 수요가 단기간에 급증했다고 분석하고 AI 인재 확보와 불완전한 교육 체계 등의 문재가 혼재해 수급 불균형이 매우 심각한 상태라고 지적했다. 또한,
중국인민대학,
베이징이공대학, 베이징우전대학 등 179개 대학이 AI 학부 과정을 신설하고 AI 인재 육성에 나서는 중이다.
인공지능에서 가장 중요한 것은 아이러니하게도
GPU, 그 중에서도
GPGPU이다. 우리가 흔히 게이밍 컴퓨터의 성능을 좌우한다고 말하는 그 GPU 맞다. GPGPU는 주로 복잡한 행렬 등의 연산을 처리하는 일을 맡는데,
가상화폐 채굴 영향으로 GPU의 몸값이 올랐다가 다시 내려오던 와중 인공지능 돌풍으로 인해 다시 몸값이 천정부지로 뛰는 중이다. 미국과 중국은
압도적인 물량을 쏟아부어 해결하고 있긴 하지만 대한민국은 그럴만한 여력은 커녕 제대로 된 체계도 잡혀있지 않은 상태로 허공에 지원금이 뿌려지는 실정이다. 특히나 교육 면에서 심각한데, AI 관련 국비지원 부트캠프가 성행하고 있으나 총 교육 기간이 짧기 때문에 실제로 AI 교육은 저런 부트캠프로는 절대 안 되며, 진행되는 교육들도 대부분 백엔드 개발자를 양성하는 AI에 대한 교육을 일부 진행할 뿐이다. 게다가 현대
컴퓨터과학의 정점이기도 하고[27] 기술 역시 물갈이가 자주 되는지라, 전문가가 저술한 책도 몇 달만 지나면 휴지조각이 되는 일도 흔하다. 천재적인 아이디어나 실력을 갖춘 사람도 물질적 여력이 없어 포기하는 일도 흔하고, 이들을 적극 지원하기 위해 돈을 때려부어도 성공을 장담할 수 없다.[28] 결국 이 분야를 제대로 공부하기 위해서는 AI 관련 디스코드 채널을 구독하든 medium 기사를 보든, 유튜브 영상을 보든, 어떻게든 최신 지식을 수집하는 수 밖에 없다. 물론 kaggle 대회에 참여하여 경쟁의 순위권에 든 사람들이 작성한 jupyter notebook의 예시를 보고, 직접 돌려보는 것이 낫다. 각 모델마다 일장일단이 있기에, "RIP ChatGPT"나 "RIP Midjourney"로 대표되는, 어떤 모델이 다른 모델보다 더 낫다는 글은 걸러야 한다. AI로 쉽게 돈을 벌 수 있다는 글 역시 걸러야 할 대상이다.
앵귈라의 국가 도메인이 .ai 이다 보니, 인공지능 관련 업체에서 이 도메인을 사용해서 서비스를 제공하기도 한다. 예를 들어 챗봇
이루다와
Anthropic의 Claude가 .ai 도메인을 사용한다.
인공지능의 영향으로 세계적으로 전력수요가 엄청나다보니 원자력이나 재생에너지보다 유리한 천연가스가 가장 주목된다.
#
#
기존 인공지능 기술로 스포츠 경기 분석을 해온 것을 넘어서 스포츠 중계까지 영역을
확장했다.
[1]
Kurzgesagt의 영상
[2]
다만, 인공지능이라는 개념 자체는 훨씬 예전부터 있었다. 예를 들면,
앨런 튜링이 ‘생각하는 기계’의 구현 가능성과
튜링 테스트를 제안한 것은
1950년의 일이다.
[3]
단층 구조로는 선형 데이터 구분이 안되는 XOR 회로에 적용이 불가능함.
[4]
#
[5]
계층이 복잡해질수록 입력층의 가중치 조정에 오류가 잦아지는 것.
[6]
아직까지 인간의 인식이 정확히 어떻게 이루어는지 밝혀지지 않은 과학계의 난제이자 인간의 신경망을 모방한 인공지능이 필연적으로 겪는 난제이다.
[7]
참고로
인텔 8086이 1978년에 나왔다.
[8]
2024년 10월 26일 기준, 위의 질문 예시를 Chat GPT-4o에 물어보면 이순신 장군이 짜장면을 좋아했다는 기록은 없습니다. 이순신 장군은 16세기 조선 시대의 인물로, 짜장면은 19세기 후반에 중국에서 유래된 음식입니다. 따라서 역사적으로 이순신 장군과 짜장면은 관련이 없습니다. 이순신 장군은 주로 전쟁과 관련된 업적과 리더십으로 기억되고 있습니다라고 정확하게 대답한다.
[9]
이를 설명하기 위해 인간의
뇌 또한 현재 인공신경망과 마찬가지로
상시 환각 상태에 빠져있으나
감각 기관을 통해 환각을 억제한다는 예측 코딩(Predictive coding)이라는 이론도 있는데, 만약 이 이론이 사실이라면
로봇공학과
컴퓨터 비전 분야가 함께 발전해야 환각 현상을 해결할 수 있을 것이다.
얀 르쿤이 이 이론을 기반으로 JEPA(Joint-Embedding Predictive Architecture)라는
트랜스포머 구조의 대안을 연구하고 있다.
[10]
생성형 AI가 본격적으로 등장한 2022년엔 단순히
매개변수를 늘리고 양질의 데이터를 공급하면 알아서 해결될 것이라는 의견이 주류였으나(Scale is All You Need) 매개변수가 늘어날수록 기하급수적으로 증가하는 연산량과 이 연산량을 감당하기 위해 드는 막대한 비용과 에너지로 인한
수익과
환경 문제, 모델을 훈련시킬 양질의 데이터도 점차 고갈되고 있기때문에 예전만큼의 큰 지지를 받지 못하고 있다.
[11]
PARC,
애플,
아마존닷컴 등에서 일한 래리 테슬러(Larry Tesler)의 말에서
유래하여 더글라스 호프스태터를 통해 유명해진 정리. 일단 한 번 실현되면 원래 인공지능이라고 여겨졌던 것도 인공지능이 아니게 된다고 절묘하게 까는(?) 내용이다.
[12]
도덕적, 법적인 관념에 어긋나는 명령
[13]
간단히 생각하면 수치로 표현이 잘 안되는 데이터라고 생각하면 쉽다.
[14]
이를테면
제3의 물결,
혁신의 시대 등의 개념들이 문명사가, 기술사가, 경영사상가들에 의해 거론되곤 하였다.
[15]
여기서 반도체란 진짜 반도체만 의미하는 게 아니라 2진법 논리를 수행할 수 있는 모든 도구를 의미한다.
[16]
만약 인간과 동일한 형태의 의식이란 것이 증명된다면 아이러니하게도
인간 또한 데이터 덩어리라는 이야기가 되기도 한다.
[17]
무조건적인 옹호가 아니라, 일단은 개발해 나가는 동시에 장기적으로 학계간의 논의가 필요하다는 입장. 대체적으로 인간을 중심에 두며, 인공지능의 자동화가 인간에게 보조적인 용도로 큰 도움을 줄 수 있다고 생각하는 사람들이다. 또한
AGI의 도래 시기가 생각만큼 가깝지 않다고 주장하는 경우가 많다.
[18]
평소 발언을 보면, AGI의 도래는 한참 멀었고, 현재 인공지능은 단순히 인간에 의해 짜여진
알고리즘 그 이상 이하도 아닌 것으로 생각하는 것으로 보인다.
[19]
2023년 들어서 본인의
트위터와 여러 행사 참여를 통해 인공지능 종말론자들을 콕 찝어 비판하고 있다.
[20]
AI의 존재가 위협이 된다는 논의는 가까운 시기에 닥칠 문제에 대한 접근성을 떨어뜨린다며 일단 출시하고 발전시켜 나가는 방식을 지지한다.
[21]
먼 훗날의 이야기에 가깝고, 가까운 시기에 미칠 파급력이 너무나 크기 때문에 리드 호프먼과 의견을 공유한다. 애초에 이 사람은 현재 학습모델 구현 방식에 문제를 제기하고 있으며, AGI의 도래는 한참 남았다거 생각하는 듯 하다. 그의 저서 'The Coming Wave'를 통해 그의 주장을 옅볼 수 있다.
[22]
로봇은 지능형 도구에 가까운 형태로 발전할 것이라고 예측했다. 다만 이 분은 로봇공학자이며 기계공학을 전공한 비전공자이다.
[23]
FutureOfLife 재단의 인공지능 규제 성명서에 서명한 사람들, 평소 인공지능에 대한 견해를 밝혀온
OpenAI의 경영진을 포함시켰다. 마찬가지로 무조건적인 규제를 주장하는 게 아니라, 향후 오남용이 우려되기 때문에 미리 발 빠른 대처가 필요하다는 입장이다. 대체적으로 빠른
AGI 개발을 통해
초지능의 출현 시기를 늦추자는 방안에 동의하는 인물들이 많다.
[24]
AGI의 잠재 위험성을 거듭 강조하며 국가간 협력이 시급하고
월드코인을 통한
기본소득제를 주장한다.
[25]
AGI로 인해 우려되는 문제점은 AGI 자체가 아니라 그것을 개발하는 개발사들의 의도라고 주장한다. 결국 인간이 더 무섭다는 소리.
[26]
Cicek, M., Gursoy, D., & Lu, L. (2024). Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role of emotional trust and the moderating role of perceived risk. Journal of Hospitality Marketing & Management, 1–23. https://doi.org/10.1080/19368623.2024.2368040
[27]
학원에서 가르치는 단순 인공지능 알고리즘 및 라이브러리만 알아봤자 아무 의미가 없는 게 당연하다. 엄청난 리소스를 잡아먹으니 데이터 전처리와 분석 그리고 하드웨어적인 기술은 당연하고, 그게 물질적으로 불가능해서 대부분 클라우드에 의존하는데 어차피 서비스도 대부분 클라우드니 웹은 물론 네트워크 기술도 따라온다. 실전 서비스에서는 프론트엔드의 모든 기술이 투사되고, 기술 격차를 따라가기 위해 괜찮은 모델이 나오는지 뉴스는 기본이고 허깅페이스나 학술지, 논문도 계속 봐야 한다. 그마저도 이미지가 뜨다가 LLM이 나오고 산업용이 대세였다가 sLLM이 되는 등 트렌드가 계속 바뀐다.
[28]
미국과 중국은 민간과 정부를 막론하고 여기에 투자하는 돈이 1년에 수백조 단위다. 우리나라에서 AI에 투자하는 규모가 조 단위를 찍는 것조차 버겁다는 걸 감안하면 기술 격차보다 더 큰 것이 투자의 격차다.
[29]
인공지능 시스템을 하드웨어(
칩셋) 형태로 구현때 용이하다.