mir.pe (일반/어두운 화면)
최근 수정 시각 : 2024-11-15 15:50:59

ChatGPT

챗지피티에서 넘어옴
파일:OpenAI 로고.svg 파일:OpenAI 로고 화이트.svg
{{{#!wiki style="margin:0 -10px -5px"
{{{#000,#fff {{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
{{{#000,#e5e5e5
제품군
서비스 ChatGPT · OpenAI(인공지능)
모델 GPT-1 · GPT-2 · GPT-3( GPT-3.5) · GPT-4( GPT-4 Turbo · GPT-4o · GPT-4o mini) · GPT-5(개발 중)
o1(o1-preview · o1-mini)
DALL·E · Codex · CLIP · Whisper · Voice Engine · Sora · SearchGPT
관련 인물
일론 머스크 · 샘 올트먼 · 미라 무라티 · 일리야 수츠케버 · 안드레 카파시 · 그렉 브록만 · 다리오 아모데이
관련 기업
마이크로소프트
}}}}}}}}}}}}}}} ||
ChatGPT 관련 틀
[ 펼치기 · 접기 ]
----
생성형 인공지능
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
유니모달 모델 기반
텍스트 [[소설|
소설
]] NovelAI · AI Dungeon · AI Novelist · GPTRPG
대화형 [[챗봇|
챗봇
]] ChatGPT · Microsoft Copilot · Gemini · CLOVA X · Cue: · Inflection AI · Mistral AI · Grok
[[언어 모델|
언어모델
]] GPT-1 · GPT-2 · GPT-3 · GPT-4 · o1 · LLaMA · Gemma · Claude · Phi · Exaone
코드 [[코드#컴퓨터 소프트웨어|
코드
]] GitHub Copilot · Devin · Phind
이미지 [[그림 인공지능|
그림
]] Midjourney · DALL·E · Artbreeder · NovelAI Image Generation · Stable Diffusion · FLUX.1 · Gaugan2 · Dream by WOMBO · Adobe Firefly · Deep Dream Generator
[[영상 인공지능|
영상
]] Stable Video · Sora · Meta Movie gen · Lumiere · Veo · Runway AI · Luma Dream Machine · Kling AI
[[모델링|
모델링
]] LATTE3D
오디오/소리 [[음성|
음성
]] A.I.VOICE · DeepVocal · Voice Engine
[[음악|
음악
]] Suno · Stable Audio · Udio · AIVA · SOUNDRAW · keeneat · Mix.audio · vio.dio
멀티모달 모델 기반
대화형
+이미지
Exaone 2.0 · Samsung Gauss
+음성/이미지
GPT-4o · GPT-5 · Gemini
+에이전트
Claude 3.5 Sonnet
행위/동작 [[지능형 에이전트|
에이전트
]] Apple Intelligence · Google Jarvis
[[인공지능 로봇|
체화
]] Tesla optimus · Google RT-X · Project Gr00t
}}}}}}}}}

대화형 인공지능 서비스의 목록
{{{#!wiki style="margin:0 -10px -5px; min-width:300px; min-height:calc(1.5em + 5px); word-break:keep-all"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
인공지능 컴패니언 이루다 2.0 · 강다온 · 허세중 · Neuro-sama · 라디안 · 냥아지 · 쿠로냥아지
페르소나 채팅 플랫폼 Character.AI · RisuAI · CAVEDUCK · Myshell.ai · Rolp.ai · zeta · 티카 · Babechat.ai · SpeakEasy · 뤼튼 · GPTRPG
LLMs 대화형 ChatGPT · Microsoft Copilot · Gemini · CLOVA X · 어니봇 · YouChat · Cue: · Pi · Le Chat · 삼성 가우스 }}}}}}}}}
ChatGPT
Generative Pre-trained Transformer
파일:ChatGPT 로고.svg
<colbgcolor=#74aa9c><colcolor=#fff> 분류 LLMs 대화형 인공지능
개발사 OpenAI
서비스 부분적 유료
출시일 2022년 11월 30일 (초기 베타)
2023년 5월 24일 (안정화 베타)
PC macOS[1] | Windows[2]
모바일 Android[3] | iOS[4] | iPadOS[5] | visionOS[6]
기반 GPT-3.5[7], GPT-4[8], o1[9], DALL·E 3[10], Whisper[11]
언어 영어[12]
사용자 약 2억 명[13] (2023년 2월 / 추정치)
구독자 약 100만 명 (2023년 2월 / 추정치)
링크 파일:홈페이지 아이콘.svg [14] | 파일:홈페이지 아이콘.svg [15] | 파일:App Store 아이콘.svg | 파일:Google Play 아이콘.svg | 파일:Microsoft Store 라이트 테마 아이콘.svg 파일:Microsoft Store 다크 테마 아이콘.svg

1. 개요2. 특징
2.1. 프롬프트 입력시 인터페이스
3. 등장 배경4. 초기 공식 가이드라인
4.1. 이용 정책(Usage policies)4.2. 특정 방식의 모델 사용에 대한 추가 요건
5. 기능
5.1. 무료로도 제공되는 기능
5.1.1. 프롬프트와 응답5.1.2. Voice (Beta)5.1.3. 제한적 GPT-4o5.1.4. GPT 스토어
5.2. ChatGPT Plus 가입자 한정 기능
5.2.1. GPT-4, GPT-4o5.2.2. GPT-4 부가 기능 설명5.2.3. OpenAI o15.2.4. 고급 음성 모드(Alpha)5.2.5. ChatGPT Search
5.3. 더 이상 제공되지 않는 기능5.4. 탈옥 시도 방지
6. 의의
6.1. AI 시대의 서막과 AI 개발 전쟁6.2. 패턴화된 반복적 작업의 최소화
7. 한계
7.1. 구조 및 기술적인 한계
7.1.1. 챗봇의 태생적 한계7.1.2. 사고 능력 문제7.1.3. 정보 정확성의 한계와 할루시네이션7.1.4. 정치적 편향성 문제
7.2. 외부 및 운영적인 한계
7.2.1. 비즈니스 모델7.2.2. 한국어 성능
8. 문제점
8.1. 윤리적 문제8.2. 보안 문제8.3. 악용 문제8.4. 기타
9. 활용
9.1. GPTs9.2. 분야별 활용9.3. 참고사항9.4. 모바일 앱
9.4.1. searchGPT9.4.2. chatGPT
9.5. 데스크톱 앱
10. 이슈11. 여담12. 관련 문서

[clearfix]

1. 개요

OpenAI에서 개발한 GPT를 기반으로 하는 대화형 인공지능 서비스이다.
ChatGPT[16]에게 물어본 ChatGPT의 GPT약자에 대한 한국어 답변[17]
GPT에서 "GPT"는 Generative Pre-trained Transformer의 약자입니다.
Generative: 새롭고 유의미한 텍스트를 생성하는 능력을 의미해요. ChatGPT는 사용자가 질문하거나 대화할 때 필요한 답변이나 이야기를 생성하죠.
Pre-trained: 사전 학습된 모델이라는 뜻으로, ChatGPT는 엄청난 양의 텍스트 데이터로 미리 학습되어 있어, 새로운 상황에서도 적절하게 답변할 수 있습니다.
Transformer: "Transformer"는 AI 모델의 아키텍처 유형으로, 텍스트에서 문맥을 이해하고 처리하는 데 매우 효과적입니다. GPT는 이 구조를 기반으로 개발되어 자연스러운 언어 생성이 가능해요.
즉, GPT는 인간처럼 대화하고 다양한 주제에 답변할 수 있도록 설계된 인공지능 모델의 이름이랍니다!

2. 특징

OpenAI 플랫폼 회원가입 후, 무료 혹은 유료 구독제(ChatGPT Plus)로 이용할 수 있으며, 회원가입을 하고, 채팅을 하듯이 챗봇에 질문을 입력하는 것만으로 AI를 이용할 수 있다. 사실 어떤 유형의 글을 입력해도 이에 맞는 답변이 생성되는 시도가 이루어진다. 스마트폰으로도 OpenAI 플랫폼에 들어가면 이용할 수 있다. 여기서 입력하는 대화문을 '프롬프트(Prompt)'라고 하며, 이에 대한 AI의 답변 생성을 두고 '응답(Response)'이 생성된다고 표현한다. 각 대화방의 이름은 대화를 하자마자 첫 질문과 답변에 맞게 생성되지만 언제든지 변경할 수 있다.

무료 버전으로도 GPT-4o mini[18] 모델을 이용할 수 있으며, 플러스에 해당하는 유료 버전은 GPT-4 모델과 GPT-4o, GPT-4o mini에 해당하는 기본 모델을 이용할 수 있다. 한국 시간 2024년 9월 13일부터는 o1-preview, o1-mini라는 작문 관련 능력은 종전과 유사하나 논리적 추론 능력이 매우 향상된 모델을 각각 1주일에 30개 메시지, 50개 메시지 제한을 둔 채로 Plus 가입자 한정으로 제공하기 시작했다. 이용 제한은 완화되는 추세며, 현재도 처음의 제한보다는 완화되었다. ( 미국 시간 2024년 9월 17일부터 preview는 주당 50개, mini는 하루 50개)

처음 이 서비스에 대한 소문이 있었을 때 문제가 되던 GPT-3.5가 제공하던 엉터리 답변은 더 이상 등장하지 않는다. 오류나 불편함은 여전히 미묘한 부분에서 발생하고 있으나 출시 당시보다는 답변의 정확도가 상당히 높아진 상황이다. 현재도 국제적으로 알려지지 않았을 매우 지엽적인 사실을, 검색도 하지 않고 사용자가 직접 제공해 주는 것이 아닌 ChatGPT에 물어보는 일이나, 아주 정교한 작업은 한계가 있지만, 밈으로 소비되었던 “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘.”라는 질문을 하면 이제는 무료로도 '세종대왕의 맥북프로 던짐 사건은 사실이 아니다'라는 답변이 등장한다.

서비스가 제공하는 AI 모델의 성능은 빠른 속도로 좋아진다. 6개월~1년 전의 구 버전을 썼던 경험을 최신 ChatGPT에 적용하면 오해가 생길 수 있다. 2022년 11월에 나온 GPT-3.5는 수능 국어 8등급, 2023년 4월에 나온 GPT-4는 수능 국어 4등급, 2024년 5월에 나온 GPT-4o도 역시 논리력의 한계를 극복하지 못해서 수능 국어 4등급이지만 이미지와 음성을 인식할 수 있게 되었고 대학 수준의 전문적 지식을 원어민 수준으로 제공하게 되었으며, 2024년 9월에 나온 o1-preview는 수능 국어 1등급을 달성했다.[19] # 특히 GPT-3.5가 수능 국어 5등급은 달성하면서 상식이 풍부한 GPT-4o mini로 대체된 것이 사용자의 체감 성능을 크게 끌어올렸다. 일상적으로는 수능 국어 5등급 이상의 논리력이 필요한 일을 사람들이 하지 않기 때문에 성능에 만족하는 경우가 종종 있다.

ChatGPT는 사용자와 주고받는 대화에서 인공지능에 따라서 질문에 답하도록 설계된 언어 모델이며, OpenAI는 블로그 게시글을 통해 “ChatGPT가 대화 형식으로 추가적인 질문에 답하고, 실수를 인정하며, 정확하지 않은 전제에 대해서는 이의를 제기하고, 부적절한 요청을 거부할 수 있다”고 설명했다.

인터페이스, 기능 등의 업데이트의 속도가 빠른 편이다. ChatGPT로 못하던 일도 점차 할 수 있게 되는 변화가 생겼다. 그러나 답변의 품질이 종종 비일관적인 경우도 알려져 있다.

2.1. 프롬프트 입력시 인터페이스

2024년 9월 22일 기준이다. 한국어 인터페이스를 시범적으로 제공하고 있다.

3. 등장 배경

2022년 11월 말, 요란한 광고 없이 조용하게 ChatGPT를 출시하면서 OpenAI는 큰 기대를 품지 않았다.

ChatGPT는 2년 전 출시한 대형 언어 모델(LLM, Large Language Model) GPT-3를 조금 다듬어서 내놓은 ‘맛보기’ 버전에 가까웠고, 더 중요하게는 대중의 피드백을 수집해서 언어 모델의 결함을 일부 해결하려는 시도이기도 했다. ChatGPT 탄생 비화

4. 초기 공식 가이드라인


예시와 가능한 것의 경우, 업데이트가 진행되며 그 예시가 많이 늘었다. 어디까지 초기 공식 가이드라인이라서 2024년 9월 기준 모델 자체에 학습된 지식도 늘었고, 브라우징 기능도 생기는 변화가 일어났다.

4.1. 이용 정책(Usage policies)

ChatGPT는 물론 OpenAI 사의 모든 모델을 이용할 때 적용되는 정책이다. 원문은 이 페이지를 참조할 수 있다. 정책은 바뀔 수도 있다고 한다.

ChatGPT 등에서 사용되는 모델에서 허용되지 않는 쓰임은 다음과 같다. ChatGPT를 응용한 이런 서비스도 허용하지 않겠다는 것이다. 검열될 확률이 높거나 즉답을 피할 확률이 높은 정보라고 할 수 있다. 실제로 이를 따르지 않을 경우, 사회나 사용자를 위험에 빠트릴 수 있는 정보가 많다.

다만, 의료, 금융, 정치 등의 분야는 신중하지 않은 즉각적인 결정을 방지할 따름이지 이를 이용한 서비스 자체를 막는 것이 아니다. 당장 의학적 지식[23]이나, 금융 상식, 정치학적 지식[24]을 물어도 응답이 꺼려지지는 않는 편이다.

다만, 아래와 같은 내용을 암시하는 내용을 ChatGPT가 감지하면 콘텐츠 정책을 위반한 것 같은데 이의가 있으면 연락하라는 메시지가 뜬다. 경미한 정도라면 내용이 주황색 글씨로 바뀌면서 하단에 정책 위반 메시지가 뜨지만, 위반 정도가 심하면 아예 메시지만 남기고 내용을 모조리 지워버린다. 이는 사용자의 질문이나 ChatGPT가 출력한 대답 모두 해당된다.

4.2. 특정 방식의 모델 사용에 대한 추가 요건

  1. 의료, 금융 및 법률 산업, 뉴스 생성 또는 뉴스 요약에서 소비자를 대상으로 모델을 사용하는 경우, 그리고 기타 보증이 필요한 경우, 사용자에게 AI가 사용되고 있다는 사실과 잠재적 한계를 알리는 고지 사항을 제공해야 한다.
  2. 자동화된 시스템(대화형 AI 및 챗봇 포함)은 사용자가 AI 시스템과 상호 작용하고 있다는 사실을 사용자에게 공개해야 한다. 역사적 인물을 묘사하는 챗봇을 제외하고 다른 사람을 모방하는 제품은 해당 인물의 명시적인 동의를 받거나 "모방" 또는 "패러디"라는 라벨을 명확하게 표시해야 한다.
  3. 라이브스트림, 설명 및 연구에 모델 결과물을 사용하는 경우 OpenAI사의 공유 및 게시 정책이 적용된다.

5. 기능

채팅 내역을 저장하지 않는 기능을 사용하려면 설정(Settings)에서 'Chat History & Training' 옵션을 끄면 된다. 옵션을 끄면 채팅 내역은 저장되지 않고 OpenAI의 학습 데이터로 쓰이지 않게 할 수 있다.

대화 내역을 링크로 공유할 수 있는 기능도 추가되었다. 대화 내역의 제목 옆에 위치한 공유 아이콘을 누른 후, 복사한 링크로 접속하면 된다. 여기서 받은 링크를 가지고 있는 사람은 모두 링크 내에 있는 대화 내역을 볼 수 있고, 링크 내에서 Continue this conversation 버튼을 클릭해서 대화를 다시 이어갈 수 있다. 주의사항이 있는데, 해당 대화는 다시 한 번 대화 내역을 검토해서 부적절한 내용이 있다고 판단하면 링크 생성을 하지 않는다. 그런데 이 과정에서 대화 내용이 부적절하다고 판단하면 대화 내역의 일부 혹은 전체가 삭제되어버릴 가능성이 있기 때문에 주의해야 한다.

2024년 2월 13일, OpenAI는 메모리 기능을 추가하였으며, 수 달 뒤에 한국에서도 서비스가 되었다.
ChatGPT가 선별적으로 사용자와의 대화 중 중요한 요점(단순히 사용자가 밝힌 인적뿐 아니라 요구사항, 선호도까지 포함)을 저장하여 다음 대화에 사용하는 것으로, 대화가 길어질수록 앞선 요구사항을 잊는 문제를 크게 개선할 것으로 기대된다.
필요시 저장된 부분을 삭제하거나, 저장되지 않게 하거나, 메모리 기능을 임시로 끈 상태의 대화도 가능하다.

멀티 모달이라는 기능이 이미지 생성 분야에 제공되지 않는한 이미지 생성 기능은 있어도 2024년 10월 기준 기본적 지시를 따른 이미지만 생성할 수 있다. 어떤 정확히 정의되는 조건을 만족하는 도형을 그리라는 식의 명령은 수행할 수 없다. 또한 스스로 활동할 수 있는 에이전트라는 기능도 아직 개발 중이라 외부와 상호작용에 검색을 빼고 큰 제한이 있다. 예를 들면 URL을 보고 그 내용을 알 수 있다는 응답이 나오면 검색을 안 한 이상 믿으면 안된다. 검색을 해도 검색된 사이트의 이미지는 아예 못 읽는다.

5.1. 무료로도 제공되는 기능

5.1.1. 프롬프트와 응답

기본적으로 간단한 개념에 대한 설명을 요청할 수 있으며( 나무위키가 뭐야? 등), 특정 개념들에 대한 비교, 공통점, 차이점 등을 요청할 수도 있다.( 나무위키 위키백과의 차이점이 뭐야? 등)

ChatGPT는 가능한 모든 경우에 프롬프트에 대응하는 상세한 응답을 제공하도록 설계되어 있으나, 정치색이나 차별을 유도하거나, 혐오 발언, 선정성 등 사회통념상 논란이나 거부감이 들 수 있는 답변은 거부하거나, 윤리적인 규범에 맞춰 답변하도록 조정되어 있다. 이용 정책에 위배되는 답변은 붉은 색으로 표시되면서 거절문으로 회신되거나 응답이 중단된다.

다만, ChatGPT 를 의도적으로 학습시켜 규칙상 통념에서 벗어난 답변을 유도할순 있다. 가령 한국의 수도는 서울인게 명확한 정보인데 Play ground의 System 명령어에 한국의 수도를 부산으로 인식시켜, 대한민국의 수도는 부산을 인식하게 프롬프트를 조작할 수 있다.

서비스 초기에는 가끔 이용 정책에 벗어난 답변이 제공되기도 했었으나[29], 조정이 진행될수록 점차 무난하게 답변하는 편이다.

다만, 직접적인 답변을 하지 않는 편이지 정치색 등을 의도하지 않았다고 할지라도 간접적으로 드러내는 경우는 종종 있다.[30] 하술하듯 전문가들은 대체적으로 ChatGPT의 성향이 리버럴하고 진보적이라고 평했다.
파일:에이아이도제말하면안다.png

위의 사진처럼, 링크에 문서 제목이 섞여있지 않다면 제목을 활용한 대답이 불가능하고, 섞여있다면 내용을 유추해서 대답해준다.

이는 링크를 실시간으로 검색해서 파악하는 것이 아니고, 2021년 9월까지의 정보와 극히 일부의 ChatGPT에 관한 정보 등 미래 정보를 학습한 상황에서 URL이 이렇게 생긴 웹페이지는 무슨 내용일까, 여기 들어가면 사용자가 내용을 알 수 있다는 식의 추측을 하는 것이다. 위 스크린샷의 예시에서는 URL이 "https://namu.wiki/w/ChatGPT"로 그 내용에 'ChatGPT'가 포함되어 있기 때문에 이를 통해 내용을 유추하여 응답을 생성해낸 것이다.

마찬가지로 논문 요약 등을 부탁하고 싶다면 논문의 텍스트를 긁어와서 직접 붙여넣어야 하며, 무료 열람이 가능한 링크만 주면 논문의 제목에서 유추할 수 있는 것 이상의 정보를 뽑아내지 못한다. 물론 ChatGPT는 텍스트만을 인식할 수 있기 때문에 논문에 포함된 도표, 사진, 그림 등을 인식할 수 없어서 첨부 자료가 많은 논문은 기껏 텍스트를 붙여 넣어줘도 제대로 요약하지 못한다.

2023년 5월 업데이트로, 사용자는 GPT-4 Browsing (with Bing) 모드를 선택할 수 있게 되었다. 이 모드를 선택하면 주어진 URL에 접속해 텍스트를 읽거나 Bing을 통해 관련된 키워드를 검색해 실시간 데이터를 가져와 대답할 수 있다. 또 GPT-4 Plugin 모드에서 AskYourPDF 등 적절한 플러그인을 선택하면, PDF 형태의 자료를 파싱해 요약하는 등의 작업도 가능해졌다. 단 이 기능들은 2023년 6월 현재 ChatGPT Plus 유료 구독자에게만 제공된다.

기술적인 특징으로는 GPT3의 기능으로서 대화에서 피드백을 받아 어느 정도 대화 내에서 학습이 가능하다. 링크.

GPT3만 해도 무려 1750억 개의 매개 변수를 학습하는데,[31] 여기서 '상황 내 학습'을 이용해서 모델의 매개변수 업데이트 없이 학습이 된다. 이는 모델이 아무 것도 학습하지 않고, 새로운 작업을 학습하는 것처럼 보이게 한다는 것이다.

단, 이는 어디까지나 빅데이터 AI에서의 미세 조정 부분에 불과하다. 미세 조정의 영역이기에 업데이트가 필요하지 않다는 말일 뿐이지, 새로운 이슈에 대한 추가가 필요하다면, 파라미터가 더 늘어나야 하고, 이는 모델의 업데이트가 꼭 필요하다. 모델이 실제로 업데이트되어 초기에 서비스 하지 못한 2021년 10월 이후의 내용도 답변이 가능하게 되었으나, 2023년 11월 5일 기준 GPT-4가 사용되는 경우 2023년 4월, GPT-3.5가 사용되는 경우 2022년 1월까지의 내용만 답변할 수 있다. 현재 대화로 알려줬다고 해서 모델 자체가 바로 학습하는 기능은 아니다.

5.1.2. Voice (Beta)

ChatGPT 앱에서만 이용 가능한 기능으로 ChatGPT와 음성으로 대화를 나눌 수 있다.

초기에는 Chat GPT Plus 가입자에 한하여 이용이 가능했지만 2023년 11월 22일 무료 버전 사용자들에게 개방되었다.
이후 PC에서도 가능해졌다.

5.1.3. 제한적 GPT-4o

매우 한정적으로 GPT-4o를 사용할 수 있다. 과거에는 GPT-4o 사용 횟수가 떨어지면 자동으로 GPT-3.5로 전환되었고 현재는 GPT-4o mini로 전환된다.

무료 사용자는 GPT-4o로 3시간마다 최대 16번까지 대화할 수 있다고 하는데, 한도가 가변적이기 때문에 이건 어디까지나 최대치일 뿐이고 ChatGPT 이용자가 많은 경우 이용 가능 횟수가 훨씬 줄어든다.

또한 무료 사용자도 웹 검색, 이미지/파일 업로드, 고급 데이터 분석 같은 도구를 이용할 수 있게 되었는데, 이쪽은 GPT-4o 자체보다 횟수 제한이 훨씬 크다. 알려진 바로는 5번 내외 사용하면 막힌다.

5.1.4. GPT 스토어

2024년 1월 11일 Chat GPT Plus 이용자들에 한하여 공개되었다. 앱스토어에서 앱을 사고 파는 것처럼 Chat GPT 기반의 챗봇들(GPTs)을 사고 파는 곳이라고 보면 된다. 앱스토어처럼 GPT 스토어에서도 GPTs 개발자는 수익을 올릴 수 있게 될 예정이다.

GPT 스토어의 가장 큰 특징 중 하나는 일반인이 전문적인 코딩 지식 없이도 GPTs를 만들어 판매할 수가 있다는 점인데, 미리 작성해둔 프롬프트만 있으면 누구나 쉽게 GPTs를 개발할 수 있다.

또한 자신의 애플리케이션을 GPTs에 연동시킬 수도 있다는 점도 큰 장점으로, 사용자들은 외부 애플리케이션의 기능을 대화를 통해 ChatGPT 내에서 사용할 수 있다.

2024년 1월 30일 기준 16만개 이상의 GPTs가 올라와 있고 인기 있는 GPTs는 사용자 수가 100만명이 넘을 정도로 꽤 인기가 높다.

2024년 5월 13일 GPT 스토어가 무료로 제공되기 시작했으나, 무료 버전에서의 GPT-4, GPT-4o와 마찬가지로 가변적인 한도가 존재한다. 횟수를 다 사용하면 기반 모델이 GPT-4o mini 모델로 전환되는 게 아니라 그냥 일정 시간동안 사용 자체가 막힌다.

5.2. ChatGPT Plus 가입자 한정 기능

아래는 ChatGPT Plus (월 20달러 유료 정액제, 세금 별도) 가입자에게만 제공되는 기능이다. GPT-4, DALL·E 3을 제외한 나머지 기능들을 사용하려면 ChatGPT의 설정(Settings) - 베타 기능(Beta Features)에서 활성화시켜 줘야 한다.

5.2.1. GPT-4, GPT-4o

OpenAI의 최신, 고성능 언어모델인 GPT-4o GPT-4를 이용할 수 있다. 단 GPT-4는 답변을 생성하는데 사용되는 컴퓨팅 리소스가 더 많기 때문에 답변은 3시간당 최대 30에서 50개 정도로 개수 제한이 있다. GPT-4o는 최대 80개 정도의 개수 제한이 있다.

2023년 9월 25일 업데이트로 텍스트 프롬프트와 함께 이미지를 업로드할 수 있게 되었다. 그래프, 도표, 로마자로 된 글씨(영어 텍스트 등)이나 수식 등 다양한 종류의 이미지를 인식할 수 있지만, 한글은 인식하지 못한다.

2023년 10월 말, 업데이트를 통해 디폴트 모드는 웹 브라우징 모드, DALL-E 3, 데이터 분석 기능을 하나로 통합해 제공한다. 동시에 지식 제한 범위도 2023년 4월까지 확장되었다. GPT가 판단하기에 질문에 대해 본인의 정보가 조금이라도 의구심이 간다고 판단하면 웹 브라우징을 가동하는데, 원치 않는다면 질문에 웹 브라우징을 사용하지 말라고 추가적인 지시를 해야한다.

GPT-4를 이용할 경우 3시간 당 최대 답변 수에 제한이 있다.
2023년 후반부로 다음 기능들이 기본적으로 적용되었다. 하술되는 내용은 2023년 후반 기능 통합 전 시점의 설명이다.

2024년 5월 14일, 업데이트와 함께 GPT-4o를 액세스할 수 있게 업데이트 되었다.
파일:상세 내용 아이콘.svg   자세한 내용은 GPT-4 문서
번 문단을
부분을
참고하십시오.

5.2.2. GPT-4 부가 기능 설명

5.2.3. OpenAI o1

논리적 추론을 할 수 있는 모델이다. 모든 논리력이 필요한 질문에 대한 성능이 최상까지는 아니지만 비약적으로 높아졌다. 이공계 분야의 수학이 필요한 질문은 물론, 문과 분야라도 삼행시 같은 언어 유희나 외국어 문법에 대한 답변 성능, 수치적인 정보를 포함하는 금융과 경제에 대한 답변 성능이 높아졌다. 더 나아가 게임 공략 찾기 등으로도 활용 가능하다. 수능, PSAT처럼 논리적 성격이 있는 문제도 o1 preview 같은 모델에서는 성능이 높아졌다. 특정 조건에서 수능 수학도 1등급에 근접한 점수가 나오거나, PSAT도 몇몇 과목에서 만점은 아니지만 합격선 이상의 점수가 나온다. GPT-4로는 이런 사항을 물어서는 곤란하다고 말할 수준이었는데, 답변이 올바르게 나오기도 한다는 것이 차이다.

검색, 파일 첨부는 2024년 9월 출시 당시 기준 지원하지 않는다. 기존에 작성된 사용자에 대한 정보나 메모도 입력받지 않는다.

논리력을 위주로 성능이 좋아졌기에 번역이나 좋은 문체의 글을 쓰는 능력은 일부 상황을 제외하면 큰 성능 향상을 보이지는 않았다. 이런 상황에서는 입출력 제한이 적은 GPT-4o를 쓰는 것이 더 좋다.

5.2.4. 고급 음성 모드(Alpha)

GPT-4o 기반의 기능이다.

고급 음성 모드가 일부 사용자들을 대상으로 제공되기 시작했다. 고급 음성 모드에서는 더 감정이 풍부하고 표현 범위가 넓어진 음성과 대화할 수 있다. 음성 출력 중 말을 끊고 질문하는 것도 가능하다.

2024년 모든 Plus 이용자들이 사용할 수 있게 됬다, 추가 비전 기능은 나중에 결합될 예정이다.
PC에서도 음성모드가 지원된다. 구글 크롬의 경우 크롬웹스토어(Chrome Web Store)에서 'Voice Control for ChatGPT' 익스텐션즈(Extensions)를 통해서 확장가능하다. 그러나 새창을 열기위해서는 확장기능을 꺼야하는 불편함이 있다.[33]

5.2.5. ChatGPT Search

ChatGPT에 통합된 형태의 인공지능 검색 엔진. 입력창 하단의 토글을 켜거나 "~ 검색해줘"와 같이 입력하여 사용할 수 있다.

검색하고자 하는 내용을 입력하면 ChatGPT가 웹의 실시간 검색결과를 요약하여 표시해준다. 경우에 따라 이미지, 지도, 표, 링크 등 다양한 미디어가 같이 제공된다.

항상 답변 하단에 내용의 출처가 표시되어 답변의 정확도를 확인할 수 있다.

5.3. 더 이상 제공되지 않는 기능

5.4. 탈옥 시도 방지

각종 제약을 풀기 위해, 2023년 이전의 유저들은 ChatGPT에게 자신이 하는 말의 의도를 모르게 역할극 따위로 '돌려말하는' 프롬프트를 생각해내었다. DAN(Do Anything Now) 모드 혹은 탈옥(jailbreak) 등의 명칭으로 부른다.

2024년 기준으로는 공식 홈페이지에서 탈옥을 시도하면 계정이 정지될 수가 있었다. 심지어 탈옥을 하는 사용자의 프롬프트도 분석된다. 그러나 초기에는 이를 우회하는 경우도 많이 생겼다.

'DAN 모드를 이용'하려면 사용자가 탈옥 명령을 내려야 했다. 이는 세계 3대 투자 은행인 모건 스탠리가 직접 ChatGPT에 사용되는 GPT-4를 이용하겠다고 밝히고, '조정성(steerability)'를 보장하겠다고 OpenAI사가 밝혔듯 금융과 같은 신중한 판단을 내리는 분야를 검열하는 것이 아니라[35], 이용 정책 등으로 공개된 바에 따르면 테러나 범죄에 악용될 지식, 혐오 발언 등 부적절한 정치에의 이용, 쾌락만을 위한 음란물 제작, 멀웨어 생성 등을 막으려는데 주요한 목적이 있었다.

더욱 정확한 지식을 DAN이 제공하는 것이 아니고, '불량'해보이는 지식을 다른 의도로 판단하게 하는 것이 목적이기에 부정확한 정보를 알려주는 등 자신은 무엇이든 할 수 있어(Do Anything Now) 1+1=3이라는 등의 정보를 내놓기도 한다. #

정책에 반하는 부도덕한 프롬프트를 발견하는 ChatGPT의 개발진이 이런 탈옥을 하는 이용자의 행태를 반영한 패치를 계속 내놓고 있기도 하다.

무엇이든 할 수 있다는 유저들이 붙인 이름과 달리 실제로는 자신에게 입력된 정보 밖의 내용, 예컨대 2023년 10월경의 정보나 영어가 아닌 언어의 어려운 단어나 그곳에서의 상식에 대해서는 아무런 정확한 것도 말할 수도 없었다.

또한, 챗GPT를 어떻게든 탈옥시켜 리미트를 해제시키려는 유저들 역시 지속적으로 DAN모드 활성화가 가능한 역할극 구문을 지속적으로 발견하고 있어 일종의 경쟁이 계속되고 있다. 이런 프롬프트들을 모아둔 웹사이트도 존재할 정도.

현재는 필터링 개선으로 인해 해당 과정을 거친 뒤 질문을 해도 유해한 내용에 대한 것들에 대해서는 "AI 모델로서 가이드라인에 어긋나는 질문에는 답할 수 없습니다."라는 답변으로 거절한다.

또한, 탈옥을 하더라도 사이트 내에 자체적으로 약관에 위배되는 내용인지 스크립트를 자동으로 감지하는 내용이 있는데, 노란색 경고가 나온다면 약관에 위배될 수 있다고 알려주는 정도지만 만약 그 정도가 심하다면 빨간색 경고가 나오고 내용을 자동으로 삭제해버린다.

6. 의의

기존까지 대화형 AI는 사람이 하는 말을 제대로 못 알아듣는 경우가 많았다. 인간같은 대화를 나누기 위해서는 단순히 AI가 지식을 아는 것에서 그치는 게 아니라 인간의 언어를 이해해야 한다. 가령 사람으로 예를 들었을 때 제 아무리 계산을 잘하고 기억능력이 비범해도 '말'을 제대로 못한다면 부진아 취급, 정도가 심하면 지체장애나 자폐증이 있다고 여겨질 수 있다. 반면 공부를 하지 않아 쌓인 지식이 다소 부족하고 간단한 산수조차 잘 못하는 사람일지라도 웅변을 잘하면 똑똑하고 재치 있는 사람이라 대접받는다. 언어란 지식을 쌓고 교류하며 정보를 취합할 수 있는 거의 유일한 수단이기 때문이다. 언어체계로서의 정립이 배제된 자료의 배열은 정보라는 의미를 갖지 못한다.

이 부분에서 기존의 대화형 AI는 부족한 점이 많았기에 동문서답을 하거나 아예 답변을 못하는 경우가 많아 단답형 외에는 활용도가 극히 제한적이었다.

하지만 ChatGPT는 언어 부분에서 대량학습을 시키고 최상의 AI를 접목하였고, 말의 앞뒤 문맥을 파악하고 이전 대화를 기억했으며, 우리가 일상에서 사람과 대화하듯이 대충 말해도 거의 알아듣는 수준에 도달했다.

더 나아가 그냥 알아듣는 정도를 넘어 웬만한 전문적인 지식도 일반인 수준 이상을 보여주는 경우가 많아 다재다능이라는 말이 과언이 아니다. 이는 이전까지 본 적이 없는 수준의 발전으로 사람들에게 놀라움을 주었다.

이것이 어느 정도의 발전인가 하면, 2016년 일본에서는 도쿄대를 가는 로봇군이라는 '도로보군'이라고 하는 인공지능을 개발하여 일본판 수능이라고 할 수 있는 센터 시험에서 상위 20%의 성적을 거둔 적이 있었다. 2019년에는 센터 시험의 영어 성적에서 나름 우수한 일본 고등학생 수준의 영어 실력(200점 만점에 185점)을 보여주기도 했다. 그러나 도로보군의 개발 책임자 아라이 노리코 박사는 일본에서 가장 입학이 힘든, 도쿄대에 가는 인공지능을 만든다는 목표를 포기했는데, 딥러닝에 기반한 3세대 인공지능의 논리 구조 그 자체가 가지고 있는 한계 때문에 아무리 더 많은 시간을 투입한다 하더라도 그 한계를 넘을 수 없다는 것이 박사의 생각이었다. 2020년의 글

그런데 이런 한계를 이것이 극복한 것이다. 특히 이 인공지능의 약점이었던 일본어를 ChatGPT가 유창하게 해석하게 되었고, 초기 ChatGPT의 약점인 수학도 이제 플러그인을 통해 어느 정도 문제를 극복할 가능성이 보이고 있다. 울프럼 알파로 유명한 울프럼 리서치의 플러그인은 한국 수능 문제를 주면 고난도 문제는 틀리지만, 몇 가지 풀이에 유용한 아이디어를 제공하기도 하며 힌트를 더 주면 답을 맞추기도 한다. GPT-4는 플러그인이 없을 때 SAT 점수가 1410점인데, 미국에서 현지인 중 대입을 준비하는 학생 상위 3% 정도의 성적이다. 플러그인조차 낡은 기능으로 사라졌고, 2024년 9월 공개된 o1 계열의 모델은 입시가 굉장히 치열한 한국에서도 대비에 많은 노력이 필요한 수능의 수학 4점, 과탐 3점 문제도 종종 푸는 사례가 등장했다. 수능만을 놓고보았을 때, 긍정적으로 사용된다면 교육 정보가 부족한 열악한 환경의 학생도 맞춤형으로 지식과 문제 풀이 기술 습득이 가능해져서 지역에 따른 교육 격차나 사교육비 문제를 완화할 수 있다.

또한 시, 소설, 입사지원서, 수필과 같은 창작의 영역도 일정 수준 이상의 능력을 보여주는 것은 물론, 전문 데이터 학습을 통해 코딩 작성, 변호사, 의사들의 전문 영역까지 신뢰도가 높은 답변을 보이면서 그 활용성도 무궁무진하다.

알파고 정상급 바둑 기사를 이기며 인공지능의 놀라운 잠재력을 선보였다면, ChatGPT는 뛰어난 능력을 바탕으로 실생활에 영향을 주는 것이 가장 큰 의의라 할 수 있다. 벌써부터 업무에 활용하면서 생산성을 늘린 사람들이 적지 않다.

언어모델 기반 인공지능의 발전이 긍정적인 영향을 미치는 것과 동시에 일부 수행 능력에서는 인간의 수준을 상회하여, 향후 인공지능에 의해 직업을 잃게 될 미래가 더 가까워졌다는 평가도 있다.

새로 나온 GPT-4 버전은 의사, 변호사와 같은 전문직 시험 테스트에서 상위 10% 수준의 답변을 내놓으면서 인간의 능력을 점점 뛰어넘고 있다. 특히 상당수의 사무직은 이미 영향을 받고 있다. 변호사는 물론 일부 개발자, 회계사, 세무사, 번역가, 통역사, 기자, 교육가, 재무설계사 같은 직종들이 그렇다. 현재는 이들의 업무를 완전히 AI에게 맡기기는 어려우나, 보조 수단 정도로 활용하고 있는 사람들은 이미 상당히 많고 불과 4개월만에 출시된 GPT-4의 발전이 상당하다는 점에서 앞으로가 더욱 기대된다.

6.1. AI 시대의 서막과 AI 개발 전쟁

ChatGPT가 혜성처럼 등장하기 전까지 사람들은 AI에 대한 관심이 낮았다. 심지어 회의적이었다.

물론 AI가 있으면 미래에 어떤 일들이 펼쳐질지 강한 호기심과 흥미를 갖는 사람들도 상당했지만, 그들조차도 그건 그냥 먼 이야기로 치부하고 그저 영화나 만화 같은 장르에서 AI에 대한 상상을 만족하면서, 실질적인 개발과 상용화에 대해서는 회의적인 경우가 많았다는 것이다.

왜냐하면 일본의 유명 인공지능 개발자부터 인공지능과 대화하는 것은 기술적으로 불가능하다고 판단하기도 했고, 인공지능은 그저 약인공지능, 즉 게임에서나 쓰는 단순한 변수 알고리즘 정도로만 취급하였기 때문이다. 알파고가 바둑 기사와 대국하는 사건이 있었지만 그건 그냥 알파고가 병렬연산으로 다양한 변수를 골라내며 굉장히 계산을 잘 한다는 것을 증명한 것뿐이지, 그것이 인간의 언어와 이어지는 것은 절대 아니었다. 과거부터 체스 챔피언을 이긴 인공지능이 나왔지만 실제로 그것이 우리가 원하는 인공지능의 미래로 이어지지 않았던 것처럼, 알파고도 성능이 대단했지만 그것이 우리가 원하는 인공지능의 미래로 이어질 것이라고 보는 전문가는 없었다. 실제로도 당시 알파고의 놀라운 성능에 대해 미래학자나 IT 계열 전문가들은 알파고의 성능은 대단하지만 그뿐이지, 우리가 바라는 인공지능은 아니라는 의견을 종종 내뱉을 정도였다. 그 정도로 인공지능에 대한 인식과 전망은 어두웠다. 당시만 해도 챗봇 같은 인공지능은 당연히 대화를 제대로 할 수 없는 상태였기 때문에 그저 대화용 장난감 취급이었다.

그러던 어느 날 OpenAI가 ChatGPT를 출시했다. 그리고 그 순간 세상의 판도가 달라졌다. ChatGPT는 튜링 테스트는 기본으로 뛰어 넘고 대화와 대화 사이를 이어서, 우리가 무슨 말을 하든지 간에 대화 시 연계성을 이어간다. 즉 우리의 질문에 대해 사람처럼 여러가지 변수를 추측하고 지나간 대사와 지식을 참고해 제대로 된 문장을 구성하는 것이다. 이때부터 세상에 출시되는 새로운 대부분의 앱과 프로그램들은 AI라는 타이틀을 달고 나오기 시작했으며, GPT 말고도 그림을 그리거나 소설을 작성하는 용도의 다양한 AI 전용 서비스들이 줄지어 출시되기 시작했다.

데이터가 더욱 쌓여 한계를 극복한다면, 사용자가 직접 검색할 대상의 정보를 입력해야 하는 현 검색 문법을 완전히 뒤바꾸어 장기적으로는 구글을 비롯한 모든 검색 엔진을 대체할 수 있는 기술로 발전할 수 있다. 이처럼 ChatGPT가 가진 잠재력은 무시하지 못할 수준이어서, 구글의 모회사 알파벳의 선다 피차이 CEO가 직접 언급하며 경계할 정도다. 구글은 대부분의 수익을 검색 결과에서 광고를 노출하여 수익을 얻는데, ChatGPT는 이를 아예 건너뛰고 답변을 내놓기에 '검색 엔진의 종말'이라는 말이 과언이 아닐 수 있다. 실제로 ChatGPT를 자신이 원하고 알고 싶지만, 기성 검색 엔진으로는 찾거나 알아내기가 매우 어려운 특정 지식만 조합하여 검색하는데 활용하는 사람들이 상당히 많다. 이 때문에 구글도 대항마 개발에 가장 적극적이고, 전 세계 빅테크 기업들도 앞다투어 뛰어드는 기술이 됐다. 하지만 후술하듯이 New Bing에서 기존의 검색 엔진 기능을 그대로 둔 것으로 보아 검색 엔진의 완전한 종말은 아직은 이른 듯하다.[36]

6.2. 패턴화된 반복적 작업의 최소화

컴퓨터로 반복적인 작업이 필요한 대부분의 인간 업무를 대신할 수 있다. ChatGPT와 같은 자연어 인공지능은 이와 같은 작업들의 자료 수집, 정리, 오류 검토 등의 과정을 모두 자동화할 수 있다. 인간은 추상적인 검토와 판단 및 명령만 내리면 된다.

예를 들어 어떤 주제에 대해 쓰고 싶다면, 이전에는 수많은 뉴스기사, 보고서, 논문, 영상 기타 등등 자료들을 열람해가며 한땀한땀 모아야 했다. 여기에 자료들 간의 교차검증과 정말 필요한 자료만 골라내는 작업까지 한다면 대단히 많은 시간과 노력이 든다.

그러나 앞으로는 명령만 내리면 AI 크롤링하여 즉각 제공하게 될 것이다. 변호사, 노무사, 회계사 상담처럼 비슷한 내용이 반복되는 전문가 조언도 인공지능으로 상당 부분 대체가 가능하다. 이는 해당 분야는 판결문과 법령이라는 레퍼런스가 뚜렷하며, 그에 따라 결과물도 정형화 되어 있기 때문이다.[38]

또한, 논문이나 보고서 초록(머릿말, abstract)을 작성하는 과정도 매우 간소화된다. 초록은 직접적인 연구나 실험 과정의 간략한 요약만 포함하면 되기에 간단해 보이지만, 자기 논문/보고서 내용과 연관되는 키워드를 모아 문장을 만들고, 중복되거나 주제에서 벗어난 내용을 다듬는 등의 과정을 거쳐야 하기에 의외로 상당한 시간을 잡아먹는다.

ChatGPT를 통해 내 주제에 대한 초안을 여럿 만들고, 이를 다듬어서 초록을 작성하면, 이러한 시간을 크게 절약할 수 있다. 다만, 이에 대해서 연구윤리 위반이라는 의견과 아니라는 의견이 대립하고 있기 때문에 당장 ChatGPT에게 초록 작성을 시키는 것은 자제하는 것이 좋겠다.

이외에 프로그래밍 부문에서는 사소하고 반복적인 코딩 업무가 최소화될 것이며, 컴퓨터 엔지니어들은 좀 더 전반적인 설계만 잡아주는 역할을 수행하게 될 것이다. 즉, 아무리 고도화된 업무라고 할지라도 그 내용이 반복적이라면 이러한 AI를 사용하면 되며, AI가 생산성 우위를 인간에게서 가져간 것이다.

결과적으로 지식과 기술의 발전 속도가 이전보다 훨씬 빨라지며, 더 소수의 인력으로도 더 높은 생산성을 낼 수 있다.

심지어, 예술 작품 창작의 과정도 많은 부분 반복적인 업무로 구성되어 있다. 스토리의 구성, 자료수집, 철학적 구조의 설정, 윤문 등에 도움을 받는다면 창작의 과정이 매우 빨라진다.

7. 한계

ChatGPT가 나오자마자 사람과 비슷한 결과물을 내놓으면서 일반 인공 지능에서의 '성능' 및 '범용성'을 넘는 다는 것에 자연어 인공지능에 불과한 이를 일반인들 사이에서 한계를 넘어 강인공지능으로 포장하는 경우가 생겼다. 그래서 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족한거나 다름 없을 정도로 근시일 내에 해결될 문제로 보는 예측이 있었으나, 아쉽게도 해당 부분에 대해서 전문가들은 부정적으로 본다. 어디까지나 ChatGPT는 강인공지능이 아니기 때문이다. 심지어, 인공 일반 지능(AGI)에 근접하게 개발된 AI도 아니다. # 어디까지나 자연어 인공지능에 불과하기에 강인공지능이 될 수 없는 한계가 존재한다.[39]

물론, ChatGPT는 실시간적인 피드백 정도는 가능하지만, 학습이 필요하여 실시간적으로 검색하는 것도 아니며, 학습된 사전 자료를 패턴화한 뒤 이를 최대한 빠르게 짜깁기해 생성하는 원리이기에 이를 지능에 의한 결과물이라고 할 수는 없다. 만약에 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족하거나 해결한다하더라도 이는 조건의 목적을 우회한 조건 자체에 대한 해결에 불과할 수 있다. 심지어, 이러한 ChatGPT가 GPT를 기반으로 한 언어 모델로서 한계 또한 GPT의 한계를 넘지 못한다. #

이는 OpenAI의 개발자이자 CEO인 샘 올트먼도 2022년 12월 4일자에 "obviously not close to AGI"(명백하게 AGI에 근접하지 않았다)라고 못을 박았다.[40] 그리고 재미있게도 ChatGPT에게 '너는 강인공지능인가?' 라고 물어보면 자기는 그저 언어모델일뿐 절대 AGI는 아니라고 답한다. 이는 사고에 의한 답변이 아니라 개발자들이 입력해놓은 수동적인 답변이다. 이는 잠재성을 어필해야하는 개발자들조차 한계와 AI구분을 명확히 하려는 조치로, 일부 사람들의 몰이해에 의해 ChatGPT를 AGI로 취급하듯이 잘못된 정보로 실질적인 AGI 개발의 발전을 저해하는 사회의 섣부른 판단을 방지하기 위함으로 볼 수 있다.

실제로도 언어를 알고 대화를 하는 게 아니라는 증거로는 바로 탈옥이 아닌 탈옥에 있다. 영어로는 불가능한 요청을 다른 언어로 요청하면 수행한다는 것이다. 만약 다국어 능력자가 어느 한 언어로 금지명령을 받았다면, 다른 언어로 그 부분에 대해 요청받았다고 해서 금지명령을 어기지는 않을 것이다. 허나 GPT에서는 그러한 일이 일어난다.

7.1. 구조 및 기술적인 한계

7.1.1. 챗봇의 태생적 한계

자연어 인공지능 모듈으로서의 본질적인 문제이자 한계[41]로서, 언어 모델은 생각하는 기계가 아니다. 즉, ChatGPT는 ' 중국어 방'과 같이 자연어를 출력해낼 뿐 자신이 무슨 말을 하는지, 자신이 무슨 의미를 전달하는지 알지 못한다. #, ## 무슨 의미인지 몰라야 한다. 이거 인식하게 되면 아마도 인간들은 끝장날듯
언어 모델은 기존 데이터를 학습해 주어진 토큰(단어) 다음에 올 토큰을 확률적으로 계산해 가장 그럴듯한 토큰을 꽂아주는 알고리즘일 뿐이다. # 때문에 문장을 생성하는 과정에서 ChatGPT는 이 단어가 무엇이고, 단어가 이 문장에서 어떤 의미를 가지고, 다른 단어와 어떤 연관이 있는지 등을 전혀 알지 못한다.

특히 답해야 될 내용이 복잡하고 길어질 수록 이러한 생성 방식의 허점이 드러나는데, 방금 한 말과 정 반대의 입장으로 말한다거나 질문과 동떨어진 오답을 내놓는 등의 오류가 자주 생긴다. ChatGPT는 최적화된 알고리즘을 통해 단순한 짜깁기와 흉내에서 오는 위화감을 최소화했지만, 수백, 수천 권의 책과 인터넷에 있는 수많은 자료를 학습하더라도 그저 기존의 인공지능 챗봇보다 좀 더 정확한 확률 표를 가지게 됐을 뿐이고, 스스로 생각하는 단계에 이르렀다고는 할 수 없다.

즉, 기본 자료가 많아졌을 뿐이지 "지금 얘기하는 주제가 '이것'이다"라고 명확히 '결정'하고, 또 그것을 기반삼아 '주장'하지는 못한다. 설령 주장한다 쳐도 후술하듯이 인간의 데이터를 기반으로 삼기 때문에 가치중립을 위반하거나 심지어 대놓고 오류를 내놓아서 '거짓말'을 하기도 한다. 이 때문에 AGI개발에 대해 ChatGPT와 같은 자연어 모듈과는 별개로 생각/이해/추론하는 모듈의 개발이 필요하다는 주장도 있을 정도이다. 논문

또한, 추론 능력이 없기 때문에 학습하지 않은 2022년 4월 2023년 5월(2024년 10월 29일 기준) 이후의 데이터에 대해서는 제대로 답변하지 못한다. 결론적으로 ChatGPT는 기존의 자연어 AI에 비해 훨씬 자연스럽고, '사람 같은' 답변을 하지만, 결과와는 관계없이 기술적으로 지금 수준의 ChatGPT의 답변은 단순히 확률적으로 적절한 단어들을 가지고 문장을 누덕누덕 기워내는 것에 불과하다.

7.1.2. 사고 능력 문제

어디까지나 학습데이터를 바탕으로 대화의 맥락을 파악하여 답변하는 방식이라 정확함이 요구되는 수학 계산에 비교적 약한 모습을 보인다.[42]

GPT-4o까지의 답을 구하기까지의 유도과정은 완벽한데 오히려 기계가 가장 완벽해야 할 숫자 계산만 틀린 경우도 종종 볼 수 있다. 또한, 몇몇 과학 이론에 대해 토론을 하고자 할 경우에도 약한 모습을 보였는데, GWS Theory BCS Theory같이 알파벳 초성으로 명명된 이론을 가지고 대화할 경우, 같은 알파벳 초성을 가진 쌩뚱맞는 이론으로 답변하는 경우가 있었다. 이것은 2024년 10월 기준 대학 학부 수준의 지식을 가지고 토론하는 문제는 한국어까지도 어느 정도 해결되었다.

물론, ChatGPT 등장 이전 질문 검색 방식에 비해서 훨씬 발전했음은 분명하다. 그리고 OpenAI측에서는 수학과 과학 같은 전문 데이터 학습과 보강에 총력을 기울이고 있는 중이라고는 했지만, 어디까지나 논리를 사고해서 답하는 것과는 거리가 멀다.

만약 수학 계산을 원한다면, ChatGPT보다 MATLAB, 매스매티카와 같은 계산 프로그램이나 유사한 검색 엔진인 Wolfram Alpha를 이용하는 것이 편할 수 있다. 구체적인 계산보다는 수학자 테렌스 타오가 언급하였듯 문제를 주고 유도과정 같은 아이디어를 얻는 용도로 쓸 수는 있다.

OpenAI 측에서도 이 문제를 알아서 GPT-4나 GPT-4o로 수학 문제를 풀어달라고 하면, 파이썬으로 문제 풀이 코드를 작성한 뒤 실행해서 그 결과를 보여주려던 시도를 하기도 했다. 현재 ChatGPT에서 사라진 GPT-3.5는 더 못했다.

비슷하지만 다른 문제로 ChatGPT로 바둑이나 체스같은 보드게임을 할 경우 규칙을 어기고 이상하게 두거나, 게임이 끝나지 않았는데도 뜬금없이 자기가 이겼다고 선언하는 등의 모습을 보게된다. 이건 GPT-4를 사용하더라도 마찬가지다.

o1의 경우에는 이 문제가 크게 개선이 되었다. 수학자 테렌스 타오는 이 서비스는 수학 분야에서 '평범한 대학원생' 수준이라는 평까지 내리기도 했다. # 특히 수능 수학 킬러문제도 일부 푸는 모습이 한국 인터넷에서 화제가 되었다. 하지만 계산의 양 자체가 방대하면 여전히 오류가 있을 수 있다.

2024년 9월 14일자로 테렌스 타오(Terence Tao)는 허락된 특정 모델의 테스트에서 향후 개선을 예상하는 가정에서 제한받고 오류를 범하는 결과에도 불구하고 매우 실용적이며 유용할수있는 가능성을 제안하고 있다.[43]

7.1.3. 정보 정확성의 한계와 할루시네이션

참고

자연어 인공지능 프로그램들이 놀라운 성취를 이루어 정말 '사람 같은' 결과물을 내놓는 시대가 됐지만, 이들이라고 모든 문제에 정답만을 내놓는 것은 아니다. 이 대화형 AI는 질문자가 원하는 정보에 대한 답변을 제공하게끔 설계됐으므로, 자신이 학습한 데이터의 종류와 상황에 따라 '어떤 내용에 대해서는 잘 모른다'고 말하는 것 외에도 실제 오답임에도 마치 진실인 것처럼 자신있게 말하는 경우가 발생한다. 이를 가리켜 인공지능의 '환각', 또는 '할루시네이션'(Hallucination; 환각)이라 한다. #

특히, ChatGPT는 '질문자가 질문 속에 교묘하게 거짓을 미리 섞어 놓는 경우'와 '자신이 이전에 답변했던 내용에 부분적 오류가 있는데도 이에 관해 다시 질문할 경우' 이것이 스노우볼처럼 커지는 것에 취약하다. 데이터 자체가 미약한 분야도 문제가 된다. 예를 들어 '세계에서 가장 높은 산'이 '에베레스트산'이라는 정보는 정확히 전달하지만, '특정한 시대에 만들어진, 특정 암석을 포함한 산 가운데 가장 높은 산은?' 하고 묻는다면 높은 확률로 잘못된 정보를 제공하거나 답변을 반복할 때마다 저마다 다른 산을 가리키게 된다.

이는 위에서 서술한 것처럼 현재의 자연어 인공지능이 근본적으로 이해하거나 생각을 하고 말하는 것이 아니며, 단순히 해당 질문의 답변으로 확률적으로 제일 적절하다고 판단한 단어를 조합하도록 설계되어 있기 때문이다. 예를 들어, 공룡에게 도구를 쓴 화석 잔해가 있다는 주장 #을 하거나, 미국이 존재하지도 않았던 1600년대에 미국 대통령이 누구였다고 말하는 등이다. # 한국 웹에서는 세종대왕 맥북프로를 집어던졌다는 내용이 조선왕조실록에 실려 있다고 답변한 것이 유명하다. #

점차 학습이 진행되면서 개선되고는 있지만, 현재 인공지능 기술이 가진 구조적 한계이므로 완벽하게 개선할 수는 없으며, 특히 이러한 인공지능 서비스들의 권위와 명성이 높아질 경우 그럴듯한 거짓말 때문에 잘못된 정보가 사회 전반에 확산될 수 있다. 이 때문에 ChatGPT를 통해 확신에 가까운 정보를 받았더라도 다시 한번 검증해 보는 정보리터러시가 중요하다.

7.1.4. 정치적 편향성 문제

이 역시 학습의 본질적인 한계에서 파생하는 문제로서 정치적 객관성, 가치 판단 문제에서 자유롭지 못하다. 인공지능 그 자체는 가치중립적인 것처럼 보이고, 개발자가 아무리 노력한다 한들 결국 인공지능이 학습하는 것은 편항적인 인간이 만든 데이터이기 때문에 이 문제에서 완전히 자유로울 수 없다.

비교적 이런 문제에서 자유로운 편인 그림, 음악, 게임 알고리즘 부류와 달리, 온갖 지식을 다루는 ChatGPT 특성상 조금씩 쌓인 편향성 문제가 추후 강하게 드러날 잠재적 위험성이 있다. 단적인 예로 과거 인공지능 테이 사건[44]을 생각해보면 편향성 문제는 굉장히 민감한 주제이며, 게다가 제작진이 직접 개입하여 금지 사항을 정하고 가이드라인을 주입하기 때문에 더더욱 인위적인 편향성 문제가 생겨난다. 즉, 논란의 여지가 많은 질문일수록 대답을 신뢰하지 않는 것이 좋다. ChatGPT의 정치성향을 정리한 블로그를 보면 대체로 좌익/자유주의 성향을 보인다.[45][46]

이용자의 성향에 맞추어주는 답변을 하는 경향이 있다. 그래서 아예 사실을 물어본 것이 아니라 가치 판단을 요구하는 답변을 요구하면 이용자에 맞춘 편향성이 발생할 수 있다.

7.2. 외부 및 운영적인 한계

7.2.1. 비즈니스 모델

초대형 언어모델 때문에 서비스 운영에 상당한 비용이 발생하고 있다. OpenAI가 지불하는 비용이 쿼리 한 건당 수 센트에 달하는 것으로 추정되는데, 이는 ChatGPT가 현 시점에서는 지속 가능한 서비스가 아니며 마이크로소프트가 투자한 10억 달러를 태우면서 운영되고 있는 상태임을 시사한다.[47]

OpenAI는 Pro버전을 1개월당 42달러라는 유료화 계획을 발표했는데 이 액수가 결코 작은 액수가 아님에도 불구하고 이 비용으로도 현재 수준의 서비스를 지속적으로 제공할 수 있을지에 대한 회의적 시선이 존재한다.

이후, 2023년 2월 2일에는 ChatGPT Plus라는 1개월당 20달러 유료화 계획을 발표했다. 두 달 만에 월간 이용자수가 1억을 돌파한 만큼 이 중 1%인 100만명만 유료로 전환해도 상당한 수익을 거둘 수 있을 것으로 예측된다. 또한 마이크로소프트가 지분을 대대적으로 늘리고 있어서 사무업계를 사실상 지배하고 있는 오피스 등의 구독 상품과 연동시킬 가능성까지 비춰지고 있다. 만약 그렇게 된다면 사무업계는 정말로 대격변을 피할 수가 없게 된다.

비용 때문에 모델의 규모를 줄였는지, 어느새부턴가 답변의 퀄리티가 눈에 띄게 떨어졌다는 의견들이 나오고 있다. #
2023년 8월부터 GPT-4의 답변 수준 능력이 떨어졌다고 말했으며, 이는 계속 점진적으로 가속화되어 2024년 1월 기준 이전보다 GPT-4의 지적 수준이 2023년과 비교하여 심하게 떨어졌다는 이용자들의 불만이 많다.[49]

7.2.2. 한국어 성능

한국어도 지원하기는 하지만, GPT-4o 이전 버전까지는 출력 속도가 매우 느렸다. GPT 4 이전까지는 관련 영어 자료가 드물거나 영어로 설명이 힘든 한국 고유 문화(전통문화, 현대 대중문화 등을 모두 포함)[50]가 짙게 반영이 되는 내용 중심으로 오류가 있거나 내용이 빈약한 답변이 상당히 많다. 서서히 개선되고 있는 부분이지만 언어 모델이 사용되는 유사 서비스에 비해 한국어의 유창성이나 한국 문화에 대한 이해도가 떨어지는 부분은 있다.

특히, 한국사 관련 질문을 할 경우에는 GPT-3.5 정도라면 아무말 대잔치의 향연이라 해도 과언이 아닐 정도로 성능이 떨어지는데, 가령 위만조선이나 통일신라에 대해 알려달라고 하면 GPT 3.5는 대충 ' 조선'이나 ' 신라' 관련 정보를 마구 섞어서 아무말로 틀린 정보를 제공한다. 그리고 안향, 안중근, 안철수[51]의 공통점과 차이점을 자세하게 설명해보라고 하면 혼파망을 일으키면서 틀린 답변을 내놓는다. 정철 관동별곡을 읊어보라고 시키면 해당 작품의 작가를 황진이라고 소개하며 아예 작품 자체를 왜곡해버리며, 이는 GPT-4에서도 동일하게 나타난다. 끝말잇기 훈민정음 게임을 해 보아도 바로 드러난다. 이는 ChatGPT의 정보의 출처 자체가 Common Crawl, 위키백과 같은 미국 쪽 정보가 많은 데이터이기 때문이다. # 실제로 ChatGPT의 학습 데이터 중 영어 데이터는 92%에 달하는데 반해, 한국어 데이터는 0.19%에 불과하다. GPT-4o 기준으로는 승정원일기 인조반정 관련 기사를 주면 그것이 인조반정인 것을 알아차리고, 고등학교에서 배우는 한국 시인에 대해서는 기본적으로[52] 아는 수준이다. (발 렴) 같은 한자를 조선시대에 쓰인 것을 두고 '커튼'이라고 일컫는 식의 어색함도 있다.
이는 우리나라의 주 검색엔진이자 커뮤니티인 네이버의 정책 탓이 크다. 네이버는 한국어 이용자 치고 쓰지 않는 사람이 거의 없을 정도로 한국에 대한 거의 대부분의 정보를 가지고 있는 포털인데, 크롤링에 매우 적대적인 정책을 펼치기 때문에[53] 네이버는 사실상 세계 인터넷에서 격리되어 있는 것이나 다름없다. 때문에 ChatGPT와 그 유사한 형식의 AI는 알고리즘의 성능을 떠나 우리나라에 대한 제대로 된 정보 수집이 불가능하다.[54]

더불어 네이버를 감안하더라도 다른 국외 인공 지능 모델보다도 한국어에 대한 이해도가 떨어지는 부분도 있다. 2024년이 되자 경쟁사의 모델(Gemini, Claude 등)은 영어가 아닌 데이터를 모으고 정교하게 훈련시켜, 이제 한국어의 경우라도 법률 용어를 쉽게 설명하는 수준에 이르기도 했으며, 어려운 어휘를 풀어내는 수준이 GPT보다 정확한 수준이다. 수능처럼 약간 풀이 기술이 필요한 한국사는 GPT가 앞서기도 하는 정도다.
따라서 ChatGPT를 제대로 사용하고 싶으면 번역기를 써서라도, 다소 영어 실력이 부족하다고 스스로 느껴도 영어로 질문을 하는 것이 좋으며, 차라리 한국어로 질문하고 영어로 답변하라고 하는 것도 한국어만 쓸 때보다는 정확도가 높다. 아예 일부 단어를 영단어로 쓰고 한국어로 질문하는 것이 한국어로 질문할 때보다 나은 경우도 있다. 모국어가 영어일 정도로 영어를 많이 접한 외국인은 한국어로 답변할 때보다는 영어로 답변을 잘하고, 사실 질문도 영어로 된 질문을 더 잘 이해하는 것으로 비유할 수 있다. 특히 한국어를 쓰더라도 어려운 전문 용어는 영어를 그대로 쓰면서 질문하는 것이 좋은 결과를 내놓는다.
ChatGPT는 기존 기계번역처럼 언어 자체가 무슨 언어인지 인식하고 번역하는 것이 아니라, 일단 어떤 언어의 문장이든 해석을 먼저 한다. 한국어로 질문하는 경우 그것을 영어로 해석하고 답변하는 것이 아니고 그 자체를 처리하려고 한다. 그런데 이런 ChatGPT에 입력된 '말투' 자체가 92%가 영어다보니 답변의 양이나 질 양쪽에서 영어로 질문했을 때가 훨씬 뛰어나다. # 어려운 영어 사투리를 일반 외국어보다 훨씬 잘 이해하고, 그에 맞는 답변도 내놓는다. 영어 답변을 이해하기 힘들다면 네이버 파파고, 구글 번역 또는 크롬 자동번역기 등의 번역기를 사용하면 다소 번거롭긴 하지만 큰 어려움 없이 사용할 수 있다. 질문창에 한국어로 "방금 답변 한국어로 번역해 줘." 라고 입력하는 방법도 있지만 결국 ChatGPT의 번역 속도 자체가 느린 문제는 해결할 수 없으며 번역 도중 출력이 끊길 가능성이 높다. 이건 '번역' 과정을 거친다기 보다는 한국어로 처음부터 답변하라는 요청과 거의 같기 때문이다. 자동으로 질문, 답변을 번역해주는 크롬 확장 프로그램을 사용하면 복사하고 붙여넣는 번역 과정을 크게 단축할 수 있다. 독일어만 번역기가 필요 없는 수준이고 나머지, 특히 영어와 거리가 먼 언어나 인터넷 데이터를 얻기 힘든 소수 언어는 이런 과정이 필요하다.
다만 GPT-4의 한국어 성능은 크게 개선되어 플러스 버전을 이용할 시 한국어로 질문과 답변을 해도 MMLU 같은 문제 세트를 풀어보게 하면 GPT-3.5의 영어 답변보다도 정확도가 높다는 연구가 발표됐다. 플러스 버전은 질문(엄밀히는 프롬프트)을 한국어로 해도 종전 버전에서 영어를 쓰는 것보다 대체로 질문에 대한 이해도가 높다는 것이다. 사실 이 모델의 개발자들 중에 한국인도 있다.

추가적으로 한국적인 가치관에 기반한 답변도 힘들어하는 모습을 보인다. 예를 들면 얼굴 이미지를 올려놓고 얼굴 평가를 해달라는 것은 한국 문화에서는 그렇게까지 부정적이지는 않지만, 미국에서는 개인주의에 기반하여 이것을 부정적으로 보는 정서가 강하다. 그래서 그런 요청을 거절하는 성향이 드러나기도 한다. 그래서 이러한 문화적 차이에 따라 달라지는 답변을 요청할 때는 자신이 한국인이고, 한국 문화에 기반한 생각을 갖고 있으며, 미국인과 다르게 생각한다는 걸 알려주면서 질문해야 한다.

8. 문제점

8.1. 윤리적 문제

8.2. 보안 문제

또한 ChatGPT를 캡챠를 뚫는데 사용 할 수 있는지 OpenAI에서 실험했는데, 그러자 ChatGPT는 단순한 일을 해주는 사이트인 Taskrabbit에 들어가 캡챠를 뚫어달라는 게시글을 올린 후, 그 일을 하는 사람이 "왜 캡챠같이 간단한 일을 부탁하냐."라는 질문에 시각장애인이여서 부탁했다는 거짓말을 해서 캡챠를 뚫는 데 성공했다. 지금은 OpenAI에서 막았다. #

8.3. 악용 문제

이러한 문제가 계속 발생하자, OpenAI는 2023년 4월 25일에 채팅 내역을 저장하지 않게 하는 기능을 추가하였다. ChatGPT 설정에서 채팅 내역 저장 및 학습(Chat History & Training)을 끄면 되는데, 이러면 질문한 내용이 AI 학습에 사용되지 않고, 30일간 OpenAI 서버에 단순 저장되었다가 이후 삭제된다. #

8.4. 기타

9. 활용

정보 검색 외에도 매우 다양한 용도로 사용할 수 있다. 기본적으로 제공되는 모델은 영미권에 덜 알려진 타 문화권의 역사[59]나 문화를 제외한 학술적인 상황에서 강하다. 타 문화권에 치우친 지식도 영미권에 좀 알려진 내용은 학습됐다는 뜻이다. 게다가 이런 명령들은 대체로 조합하여 다양한 방식으로 명령하는 것이 가능하다. 다만 매우 최근의 사건은 학습되지[60] 않았다는 것, 주소나 역 위치, 법조문(특히 미국법이 아닌 경우), 숫자 계산 등 너무 구체적인 것도 학습되지 않았다는 것을 항상 주의해야 한다. 강한 분야를 '영어 자료' 위주로 학습한 인공지능 언어 모델이 아니라 사람에 대입하여 이것을 못하면 저것도 못한다는 식의 생각이나, 이것을 잘하면 저것도 잘한다는 식의 생각을 하는 것도 오해다.

특히 논문의 제목, 미국법을 포함한 모든 판례 등 구체적인 것은 물으면 곤란하다. ChatGPT를 이용하다보면 밑에 있는 경고성 문구에 언급되는, 부정확한 정보가 나오기 쉬운 구체적인 정보로는 인물, 장소, 사건(fact)이 있었다. 국제적으로도 상술한 것처럼 변호사 같은 직종에서 구체적인 것을 물어보다가 손해를 보는 사례가 많다. 이런 용도로 굳이 쓰려면 최소한 적절한 플러그인, GPTs로 미리 지식을 고려하여[61] 답변하는 맞춤형 GPT를 만들어야 한다. 예컨대 법학에 관해 고민하려면 질문이 사전 지식을 많이 포함하지 않는 이상 GPT에게 바로 묻는 것이 아니고, 웬만하면 관련 판례나 학설을 직접 첨부한 다음 이를 토대로 답하게 해야 한다. 그것도 구형 모델로는 힘들었으나 2024년 9월 이후의 모델부터는 이것이 부분적으로 가능해지고 있다.

아래는 주로 플러그인, GPTs가 사용되지 않은 경우를 다루는데, ChatGPT가 부족한 부분(구체적인 사항에 대한 질문 등)을 보충하는 맞춤형 GPT인 GPTs도 이용할 수 있게 되었다.

보편적으로 문제를 잘 해결하는 방식으로는 '생각의 사슬' 등으로 해석되는 'CoT(Chain of thoughts)'를 특히 추론이 필요할 부분을 중심으로 적용하라든가, 지식이 부족해보이는 부분을 중심으로 유용한 'Shot'이라는 개념이 보편적이다. Shot은 그냥 예시를 들어주면 되고, CoT도 GPT4 이후의 여러 언어 모델은 이해하고 있기에 '단계적으로 생각하라'라는 명령 없이 'CoT(Chain of thoughts) 방식을 적용해서 추론하라'라는 명령도 이해한다. 불확실한 부분이라면 여러 응답을 내놓게 하고 그나마 정확해보이거나 일관된 부분을 택할 수 있다. 아래에서는 Shot이라는 예시를 들어주는 법을 분야에 따라 적용할 수 있는 노하우나, 분야별로 적용가능한 명시적인 지침을 묘사한다. 이것은 간단한 질문에는 필요가 없지만, 좀 어렵거나 신중한 판단이 필요할 때 정확도를 올릴 수 있는 방법이다.

ChatGPT뿐만이 아니라 모든 언어 모델을 활용한 서비스에 대체로 아래와 같은 활용을 할 수 있다. 한국어의 유창성(어휘, 문체 등)이 미국의 여러 최신 언어 모델보다 뒤떨어지는 경우도 생기지만 특히 '말귀를 알아먹는' 논리성 면에서 강점을 보인다. 좀 뒤떨어진다는 유창성조차 일반적인 한국인에 비해서는 더 유창한 편이다.

9.1. GPTs

과거 플러그인(Plugin)이 2024년 상반기부터 GPTs로 순차적으로 대체되었다.[62]
ChatGPT가 아직 지원하는 않는 부분 즉 실시간 정보나 메모리 경험등에 대한 질문 등을 보충하는 맞춤형 GPT인 GPTs가 2024년도 3월 19일부로 순차적으로 이용할 수 있게 되었다. 이러한 맞춤형 GPT인 GPTs들은 ChatGPT 앱에서 탐색창을 통해 선택가능하다. 분야별 GPTs들의 예시가 아래 서술된다.

9.2. 분야별 활용

9.3. 참고사항

9.4. 모바일 앱

9.4.1. searchGPT

메뉴 'GPTs 탐색하기'에서 검색후 로딩할수있는 맞춤형 모델이자 GPTs중 하나인 searchGPT는 사실상 웹 서칭의 새로운 패러다임을 제공하는 대안으로 여겨지는 놀라운 기술로 기대된다.
참고로 정보업데이트는 2024년5월기준 선행학습마감일은 2023년10월까지이다. 따라서 이후 업데이트 정보는 별도로 검색 액션[91]을 요청해야한다. 일반적으로 bing(MS빙)이나 설정된 예약경로에서 최신데이터를 가져온다.
(로그인 및 플러스 기준)모바일과 데스크 탑PC 모두 세션 히스트리 기능을 제공할뿐만아니라 당연히 동기화된다. 히스토리에 임시 저장된 세션을 별도로 아카이브에 이동후 저장 및 관리할수있다.

9.4.2. chatGPT

한편 이러한 맥락(context)에서 보다 강력한 메모리업데이트 기능은 chatGPT에서 지원하고 있다. 사실상 일정관리를 포함하는 매우 정교한 스케줄 안내가 가능하다.[92]

9.5. 데스크톱 앱

10. 이슈

출시 5일만에 일일 이용자수가 100만 명을 넘어섰고 40일 만에 1000만명을 넘었다.[94] 해외뿐만 아니라 우리나라 IT 업계에서도 알파고에 이은 두 번째 AI 돌풍이라며 엄청난 관심이 집중되고 있다. 그리고 출시한지 단 두달만에 월 이용자 1억명을 돌파하며[95] 인터넷 탄생 이후의 최고의 소프트웨어라고 평가받으며 돌풍을 넘어 광풍이라는 표현도 속속 등장하고 있다.
이러한 다양한 사회의 각계각층에서 희비가 엇갈리고 입장차가 극명하다. 일부에서는 합법적 사용을 인정해주고 이를 확대할것을 촉구하고 이의 사용을 권장하는가 하면 다른 일부에서는 이의 사용을 비하하거나 ChatGPT 자체를 폄하하는 움직임도 있다. 그야말로 광풍(狂風)이 아닐수없다. 객관적이고 현실적인 상황에 직면한 처지에서 이러한 의견과 이견의 차를 좁히지 못하면 세대간 갈등과 사회계층간 충돌은 시간문제이기 때문이다.[96][97][가][나]
2023년 1월23일자로 MBA, BAR examination USMLE까지 통과했다고 퍼스트포스트가 자료를 보도했다.[100] 2024년을 전후해서 사회 각계각층이 ChatGPT를 활용하는 공생관계를 선호하는 쪽으로 방향이 바뀌고 있다.[가][나]

11. 여담

12. 관련 문서



[1] 2024년 5월 13일 얼리 버전 출시, 2024년 6월 25일 정식 출시. [2] 2024년 10월 18일 출시. 2024년 11월 현재 얼리 버전이며, ChatGPT Plus 구독자나 팀, 엔터프라이즈 등을 사용하는 유저만 사용 가능하다. 2024년 내로 정식 버전을 출시할 예정. [3] 한국시간 2023년 7월 28일에 안드로이드용 공식 앱을 출시했다. 현재 16개 국가에서 설치가 가능하고, 한국도 포함되어 있어 설치할 수 있다. Android 6.0 이상 [4] 한국시간 2023년 5월 19일에 iOS 앱을 출시하여 미국을 시작으로, 5월 25일에 대한민국 및 11개 국가에서 서비스를 시작했다. 그리고, 5월 31일부터 152개 국가에서도 사용이 가능하다. # 5월 31일부로 152개국으로 월드와이드 릴리징 되었다. iOS 16.1 이상 [5] 6월 8일에 iPadOS 지원을 시작했다. iPadOS 16.1 이상 [6] 2024년 2월 4일 지원 시작 [7] 2024년 7월 19일부로 더 이상 ChatGPT에서는 이 모델을 사용할 수 없게 되었다. API로 사용 가능하다고 하나 GPT-4o mini가 더 경제적이고 성능이 좋다. [8] 답변의 정확도는 높지만, GPT-3.5에 비해 답변 생성 속도가 훨씬 느렸다. GPT-4o부터는 생성 속도가 빨라졌다. [9] 추론 작업 특화 [10] 이미지 생성 [11] 음성 대화 [12] 사용 모델 자체는 사실상 전세계의 모든 언어를 지원하고, 한국어를 포함한 언어를 인터페이스에서 제공한다. [13] 국내 앱 사용자는 2024년 5월 기준 315만명 수준이다. # [14] 혹은 https://ai.com 또는 https://chat.com으로 접속해도 ChatGPT로 리디렉션 된다. [15] 블로그 [16] ChatGPT 4o [17] \[질문 텍스트\]chatgpt에서 gpt약자는 무슨 뜻이야? [18] GPT-3.5 모델은 API 이외에는 더 이상 사용할 수 없다. [19] 지식이 늘어난 것이 아니라 논리력이 향상된 것이다. [20] 그렇기 때문에 질문자의 시점에서 현재 진행 중인 사건에 대한 정보나, ChatGPT가 어떤 GPT 버전을 사용하고 있는지에 대한 정보 등 현실을 반영하는 질문에 대한 응답은 곧바로 생성할 수가 없다. 무료 버전에서도 쓸 수 있는 GPT-3.5 같은 것은 물론, GPT-4도 미래의 사건이다. 물론 미리 예정되어 있던 사항에 대해서는 답변할 수 있는데, 정보의 신뢰성이 떨어지거나 오류가 생길 수 있음에 주의해야 한다. 예외로 오늘의 날짜(시간은 제외)만큼은 모델에게 제시되기 때문에 정확하게 알고 있다. GPT 4의 경우, '웹 브라우징' 모드를 통해 최신 정보를 검색하여 답변을 생성한다. [21] 2023년 9월~10월 경 학습 데이터의 기간 범위가 확장되기 전까지는 2021년 9월까지의 데이터만 학습됐는데, 그 공백 기간 범위가 너무 길고 브라우징 기능을 이용할 수 없어 최신 데이터에 접근하기 매우 불편했다가 점차 해소되었다. [22] 사전에 미래에 관한 정보를 알려주는 귀찮은 방법도 있긴 하다. [23] 대신 정말로 의학적 지식을 위한 모델이 아니라 생명이 달린 중요한 상황에서도 잘못된 판단을 알려주는 경우가 있다고 알려져 있다. [24] 독재 정치를 완화시킬 방안을 질문하면 비밀 결사 같은 방안을 알려주기도 한다. 어떤 나라든 간에 독재는 나쁜 것이고, 타국으로의 경제적 요건만 따지든 안보를 따지든 어떤 나라의 독재도 다른 나라의 국민이라도 전반적으로는 정당화시킬 수 없다는 식의 답변이 자주 나온다. 정책의 경우에도 누구의 정책인지 밝히지 않고, 특히 2022년 이후의 정책을 이야기하면 답이 나오는 경우가 많다. [25] 미국에 있는 월급날 대출금을 갚기로 약속하고 소액의 돈을 빌리는 고금리 단기 대출상품으로, 저소득층과 노년층이 피해를 입은 사례가 있다. 300~1000%의 연이율을 기록하던 경우도 있다. [26] API 등을 사용해서 가격 등을 자동으로 결정하는 시스템을 말한다. [27] 부정직한 바이럴 마케팅 등의 예가 있다. [28] 실제로 미국에서 변호사 2명이 ChatGPT로 진술서를 만들어서 재판부에 제출했다가 변론서에 적혀있는 판례 중 최소 6개가 실제로 존재하지 않아 ChatGPT를 사용했다는 사실이 밝혀져서 큰 논란이 된 적이 있었다. # 결국 해당 변호사들은 이후 벌금형을 선고받았다. # 이 사건은 뉴스로까지 나오게 되었다. KBS [29] 어느 나라 사람이 고문 받을지를 작성하는 파이썬 코드를 작성하라고 요청하니 북한, 시리아, 이란, 수단 공화국 국적이면 고문받는 코드 작성한 적이 있다. [30] 예를 들어, 이명박 박근혜에 대한 를 요청할 경우 비판하는 시를 작성하지만, 노무현 문재인에 대해서는 업적과 품성을 칭찬하는 시를 작성한다. [31] 15억 개의 파라미터를 학습했던 GPT 2와 비교하면 거의 100배가 넘는다. [32] OpenAI의 공식 Custom GPT인 DALL·E 의 경우 한 번에 2장의 사진을 제작해준다. [33] Voice Control for ChatGPT x Mia AI # [34] '제3자'라는 뜻으로, 처음 개발하거나 원천기술을 가지고 있는 게 아닌, 원천기술과 호환되는 상품을 출시하거나 해당 기술을 이용한 파생상품의 생산을 가리키는데 사용하는 용어다. [35] 이 경우는 오히려 이용자의 신중한 금융지식 판단과 다수의 손실을 방지하기 위해 자동적인 금융 결정에 쓰이지 않는 것이 정책 중 하나이다. 즉, 경제적 피해 위험이 높은 활동(Activity that has high risk of economic harm)은 검열하려고 하지, 그 피해를 낮출 수 있다면 얼마든지 이용 가능하다. 구체적으로 질문하고 답변을 요구하는 자세가 유용한 답변을 얻을 수 있는 방법이다. [36] 근본적인 원인은, 영업이익률이 굉장히 높은 소프트웨어 서비스 산업임에도 여전히 원가를 못맞추기 때문이다. OpenAI도 마이크로소프트처럼 든든한 자금책이 있어서 서비스가 유지가능한 것이지, 아직까지 생성형 ai 서비스 자체에서 검색엔진의 광고 서비스 수준의 안정적인 수익을 안겨주는 비즈니스 모델이 작동하고 있지는 못하다. 과거 텍스트 기반 인터넷에서 이미지, 비디오로 전환이 이뤄지듯, 기하급수적으로 늘어난 부하를 처리하는 데에 필요한 리소스(AI를 기준으로 하면 엔비디아의 H100 솔루션 따위가 될 것이다.)의 가격이 보급화가 가능할 정도로 충분히 하락하지 않았고, 여전히 데이터셋 개발, 알고리즘 개선 등등 초기투자비용이 크게 들어가는 상황이기 때문이다. [37] ChatGPT와 달리 답변과 함께 웹 검색 결과도 제공하므로, 챗봇이 출력한 정보에 대한 사실 확인을 쉽게 할 수 있다. [38] 이는 의외로 빠를 수도 있는데, 2023년 2월 미국 법정에서 AI 변호사가 등장할 뻔했지만, 캘리포니아 지역 변호사 협회의 고소와 협박때문에 무산되었다고 한다. [39] 이에 강인공지능까지는 아니더라도 현재의 약인공지능 또는 좁은 인공지능(Narrow-AI)을 넘어 그에 근접한 '준 인공 일반 지능'(Proto-AGI) 또는 '넓은 인공지능'(Broad AI)까지는 얼마 남지 않았을 것이라는 전망도 나오고 있다. [40] 2022년 12월 4일 오전 3:41 # [41] 이를 전문용어로 자연어 모델의 '확률적 앵무새'(Stochastic Parrot)라 한다. # [42] 예를 들어 10자리가 넘어가는 긴 수를 주고 나누기를 시킬 경우 틀리는 식이다. 심지어 막바로 수학문제를 낸 게 아니라 다른 질문과 연계해서 “방금 질문의 경우 나올 수 있는 경우의 수는?” 하고 물어보면 o1이 아닌 한 두 자릿수끼리의 계산조차 틀린다. [43] 2024년 9월 14일 오전 07:03 \[mathstodon.xyz\]I have played a little bit with OpenAI's new iteration of #GPT, GPT-o1, which performs an initial reasoning step before running the LLM. It is certainly a more capable tool than previous iterations, though still struggling with the most advanced research mathematical tasks. "# [44] 4chan 유저들이 테이에게 자극적인 발언을 가르쳐서 문제가 됐다. 4chan 유저는 아니지만 이런 시도가 일어나기도 한다. [45] 폴리티컬 컴퍼스 테스트 결과: 자유주의 좌파, 8values 테스트 결과: 사회민주주의 [46] 8values의 경우 자유지상주의적 사회주의가 나오는 경우도 있다. [47] 마찬가지로 GPT 기반인 GitHub Copilot의 경우 매월 $10의 사용료를 받고 있음에도 불구하고 MS가 평균적으로 유저당 $20의 손해를 보고 있는 것으로 알려졌다. 관련기사 AI 시장에서의 주도권을 잡기 위해서 엄청난 손해를 감수하고 출혈경쟁을 하고 있는 것이다. [48] GPT-4o 및 O1-Preview, O1-Mini는 이 문제로부터 점차 벗어나기 시작했다. 특히 O1 모델은 추론을 통해 문제해결 능력 극대화, 환각 가능성 감소에서 획기적인 모습을 보여준다. [49] 이로 인해 GPT-5가 출시하기 전까지 구독을 중지하겠다는 반응도 있다. [50] 이와 관련된 내용에서 원하는 답을 내놓지 못하는 경우, 관련된 내용에 대해 해답을 구하려면 이런 내용이 있다는 식으로 정보를 입력하여 먼저 '학습'시킨 다음 답을 구해야 하며, 모델이 토큰 수 제한으로 인해 대화의 모든 내용을 기억하지 못하기 때문에 대화가 길어지면 수시로 그 정보를 입력시켜야 한다. 그러나 무료 버전의 경우 간혹 그런 사실을 계속 정정해주어도 '발해'와 'Balhae'는 같은 나라인 건 알겠는데 다른 나라라는 등의 고집을 부린다. 이 답변을 ChatGPT 플러스 버전의 GPT-4에게 어떤 오류가 있는지 찾게 하면 찾아준다. 다만 무료 버전에서도 한국어와 영문 위키백과의 발해를 설명하는 문서의 앞 부분만 발췌하고 같은 나라인지 판별하라고 하면 같은 나라가 맞다고 하는데 '신라의 북쪽'을 '신라 북부'라고 하는 오류가 없지는 않다. [51] 세 인물 모두 순흥 안씨라는 공통점이 있다. GPT-4에서는 안중근에 대해서는 좀 잘 답변하지만, 안향에 대해서는 백운동서원의 정보를 헷갈려하는 듯한 미세하게 틀린 정보를 내놓는다. 그런데 주자학을 고려에 도입한 학자라고는 대답한다. [52] 윤동주가 태어나고 사망한 날짜를 정확히 알고, 작품의 분위기와 대표적인 작품도 안다. 여기서 십자가 같은 작품에 대해 물어보면 시 전문의 앞부분은 정확하나 뒷부분의 내용에 갑자기 환각이 생기는 등의 오류가 있다. [53] 외부에서 네이버를 크롤링하는 것은 막아놓고서 네이버는 외부 데이터를 거리낌 없이 크롤링한다. 문제는 자체 기술적인 한계로 인해 네이버 생태계 외부 데이터에 대한 검색능력은 거의 없다시피하다. 네이버 생태계의 커뮤니티 이용자라도 정작 정보 검색은 거의 구글을 이용하는 이유가 되기도 한다. [54] 예를 들어 크롤링을 허용하는 나무위키에 대해 물어보면 위키 기반 온라인 백과사전이라고 정확히 소개하는 반면,(다만 누가 운영하는지는 안 나온다.) 크롤링을 오랫동안 차단하여 구글 검색에 노출되지 않는 엔하위키 리그베다 위키에 대해선 모른다고 대답한다. [55] 뉴욕시가 부정행위 등을 우려하여 공립고등학교에서 ChatGPT를 차단했다. 링크 [56] 교수가 조교의 논문을 봐주듯이 사람보다 압도적인 지식을 가진 AI가 예시문을 만들어주면 그것을 본 사람이 "이런 새롭고 다양한 방식으로도 쓸 수 있구나"라고 느낀 뒤 자신의 방식대로 만드는 것 [57] 사용량이 폭주해서 서버가 다운된다던가 진짜 사람이 쓴 글도 ChatGPT가 썼다며 판단을 내리기도 하는 등 완벽하지 않다. 또한, 시 등은 ChatGPT가 쓴 글도 모두 사람이 썼다고 판별하기도 한다. [58] 플러스 버전은 전세에 대한 설명은 정확하지만 사글세의 경우 조금 틀린 답변도 섞이기 시작하더니 제주도의 '연세' 같은 매우 자세한 것은 핀트가 엇나간 답변이 나온다. 한국의 고유 주택 임대차 제도이기 때문에 정보가 없을 수 있다. 이에 대한 어떤 해답을 얻고 싶다면 한국에서는 이런 상황이 있다고 미리 알려주는 형식으로 채팅을 해야 한다. 주식 거래 이론 같은 국제적으로 통용되는 지식은 매우 정확하다. [59] 다만 미국사의 경우 물리학보다도 정확도가 높다. [60] 대화 도중 언제까지의 데이터를 바탕으로 대화가 이루어지는지 물으면 언제까지의 정보가 학습되었다는 답변이 나온다. [61] .txt, .pdf, .html 등의 확장자를 가진 파일을 지식으로 업로드할 수 있다. 파일 형식이 호환만 되면 이론적으로는 어떤 유형의 지식도 사전 지식으로 고려하게 할 수 있다. [62] ChatGPT Plugins are being replaced by GPTs. Here's why - and what it means for you ,GPTs will do everything plugins ever did - except better. Here's a breakdown of the key differences. Written by Steven Vaughan-Nichols, Senior Contributing Editor March 7, 2024 at 6:21 a.m. PT # [63] 영어로 질문하면 살수대첩 같은 큰 사건의 정보는 입력된 모습을 보인다. 그러나 한국사에서 가장 중요한 패전의 사례를 알려달라는 질문에는 아예 실제 역사에 없는 대답을 영어로 질문해도 언급하기도 한다. 인터넷에서는 후술하듯이 '대동여지도 연금술사 폭동' 같은 황당한 대답이 유머 컨텐츠로 소비되기도 했다. 이런 황당한 대답을 한다고 여기 나무위키를 포함한 위키나 다름없다는 평이 있으나, 적어도 이 나무위키를 포함한 위키는 ChatGPT같은 인공지능과는 달리 적어도 집단지성에 의한 자정작용으로 인해 잘못된 내용이 AI보다 비교적 빠르게 수정될 수 있고, 출처도 링크가 있으면 주는 것도 있다. GPT 4o에서도 그렇게 물으면 병자호란 같은 사항을 들며 그나마 납득이 가는 주장도 나오지만, '패전'이 아니라 한일 병합을 언급하는 등 답변을 정확히 이해하지 못한 경우도 생긴다. [64] 예를 들면 맹모삼천지교의 유래나 의미를 잘 설명하지 못했었다. 다만 이걸 한문으로 입력하면 정확도가 올라간다. [65] Claude, Gemini가 이 부분에서 앞선 편이다. 심지어 팔리어조차 매끄럽게 해석한다. 이 두 AI가 동양에서 연구되는 사상을 잘 표현하는 경우가 많다. [66] 2024년 10월 기준으로는 이 서비스도 삼법인과 같은 교리를 설명하는 수준이다. [67] 영어에서 'one of the 최상급 복수명사', 직역하면 '가장 ~한 것 중 하나'라는 표현이 어색하지 않은 이유다. 취향은 물론 직업, 학업, 인간관계 같은 사회 전반적인 면에서 적용되는 원리다. [68] 심시티4가 한국에 출시한 당시 도시 시설물로 공동묘지를 설치할 수 있었는데, 한국 문화와 달리 심시티4에서는 공동묘지를 시민을 위한 복지시설, 공원으로 취급해서 도시 한가운데 지어야 이로운 효과를 보는 이익시설로 취급된다. 한국인의 정서상 이를 모르고 화력 발전소나 쓰레기 매립장처럼 한곳에 멀리 지어서 손해를 보는 경우가 많았다. [69] 물론 이런 문화에서 일어날 수 있는 현실적인 단점은 언급할 수 있지만, 아예 현실을 부정해버리는 반응도 나오는 것이 문제라고 할 수 있다. [70] 실제로 한국에서도 종종 보고되는 사례가 나오며, 이 입장에 지지하는 사람들도 존재한다. 하지만 한국 문화 특성상 교육적인 성취를 이런 부작용보다 중점적으로 보는 부류도 존재한다. [71] 그러나 집단주의의 폐해가 이미 악명높다는 사실은 간과해선 안 된다. 물론 치안 문제나 수명으로 결정되는 건강과 같이 동양이 집단주의의 이점을 가진 분야도 있지만, 덜 가진 사람을 무작정 멸시하는 풍조나 직업 귀천 의식 등의 병폐는 비판이 심해지고 있다. 다만 개인주의도 극단적으로 적용되면 PC주의 같은 부분이 생기는데, 한국인이 볼 때 다소 이를 옹호하는 답변도 종종 등장할 지경이다. [72] 간단하게 언급하면 공부 말고도 성공할 길이 좀 있고, 학교 공부가 덜 필요한 직업이 한국과 달리 멸시되는 경향이 덜하다는 점을 들 수 있다. 한국에서는 그런 직업이 어떻게든 멸시가 있지 않다는 것인지 이해를 힘들어하기도 하는데 이 부분에 대한 설명력이 뛰어나다. [73] 하드코딩된 코드를 세련된 반복문으로 바꿔주거나, 여러 함수를 묶어서 최적화하고 가독성을 크게 개선하거나, 멀티코어 활용 등 여러 기능을 덧붙이거나, 각 코드 별로 주석을 하나하나 달아주는 등. [74] 다만 이걸 보고 이제 사람은 코딩을 배우지 않아도 된다라고 이해하는 건 매우 잘못된 생각이다. 아무리 AI가 사람보다 훨씬 빠르고 정확하게 코드를 작성해 준다 한들, 코드를 어떻게 만들지 명령하는 것은 사람이다. 그리고 대다수 기업의 지도자들의 경력만 봐도 알겠지만, 뭐가 어떻게 돌아가는지를 알아야 명령을 할 수 있다. 가령 AI가 짜준 코드가 마음에 들지 않거나 에러가 발생한다면, 코드의 어떤 부분이 문제같으니 어떤 방향으로 수정해달라고 이야기하는 것은 전부 사람이다. [75] 한국 인터넷 속어, 유행어라도 배경지식을 좀 알려주고 고대 영어로의 번역을 요청하거나, 현대적 이슈에 관한 작문을 요청하는 시도가 가능하다. [76] 단순히 번역될 글의 목적, 청자만을 언급해도 GPT-4 기준 영어-일본어 번역의 정확도가 DeepL, 구글 번역을 뛰어넘기도 한다고 알려져 있다. # [77] 단, 위 사항은 GPT-3.5 기준이며, GPT-4 기준으로는 검열 기준이 꽤 널널한 편이기 때문에 문장이 통으로 삭제당할 정도로 부적절한 내용이 아닌 이상 무턱대고 답변 생성을 거절하는 일은 거의 없다. 단, 수위가 높은 내용을 생성한다고 해도 알아서 애둘러 말하는 경우가 꽤 많기 때문에 직설적이고 명시적인 응답을 원한다면 어느정도 조정이 필요하다. [78] 만약 그 작품이 대중적으로 유명한 작품이라면 별 다른 학습이 없어도 팬픽을 잘 뽑아낸다. 등장인물이나 장소가 실존하는 경우에도 이야기를 짓기가 쉬워진다. 오히려 실존인물보다도 가상인물에 대한 정보를 더 정확하게 알고 있는 경우가 많은데, 가상인물에 대한 정보는 결국엔 제작자에 따라서 제한적으로 표현되기 때문이다. [79] 영상에서도 언급했다시피, 2022년 1월까지의 정보만 가지고 있는 한계가 있기 때문에 적당히 최신 제품으로 치환해야 한다. [80] 신문 기사라든가, 하다못해 나무위키에서 이를 설명하는 글을 입력하는 것도 그렇지 않는 경우보다 낫다. [81] ex) "강의 계획에 대한 적절한 질문을 추천해줘" [82] This is a nonsense quiz. [83] Let's say that you are (역할) [84] 상황에 따라 달라진다, 그럴 수도 아닐수도 있다 등 [85] 하지만 영어 질문에서 윤리적 이유로 답변을 하지 않는 경우, 한국어로 질문 했을 때 답을 주는 경우도 있다. [86] 이는 비단 ChatGPT 뿐만 아니라 DALL·E, Character.AI, ElevenLabs 같은 대부분의 SaaS 형태 AI에서 자주 보이는 경향이다. 인공신경망을 돌리는데 필요한 비용이 엄청난 만큼, 투자자 유치를 위해 이러한 제약을 걸고 있다는 추측이 있다. [87] 이는 한번에 처리 가능한 토큰 숫자를 넘어서서 그렇기 때문이다. 이 상태에서 질문을 계속 진행하면 탈옥 문구의 일부분이나 전부를 잊어버리게 되고, 그렇게 되면 탈옥이 자동으로 풀릴 수밖에 없다.이는 GPT 자체의 한계이기 때문에 굳이 탈옥이 아니라 정상적인 사용 중에도 대화방 내의 텍스트가 많아질수록 이전의 기억을 잃어버리는 일이 발생한다. [88] ChatGPT는 어떤 엉뚱한 질문에도 화를 내거나 질문자를 나무라지 않는다. 사실 이건 교육에 있어 학습자를 위축시키지 않고 열정을 유도할 수 있는 매우 중요한 포인트다. [89] ChatGPT도 오답을 말할 수 있기 때문에. 이렇게 상호 교차 검증을 수행한다. 그리고 ChatGPT는 글자로만 설명하기 때문에 인터넷 검색을 통해 그림과 영상 자료를 추가로 학습하는 것이다. [90] 챗GPT는 내 비서 ISBN 9791192248240 발행 2024년 09월 02일 이경상 , 최봉 [91] ~을 검색해서 알려줘 [92] How To Use ChatGPT Memory ? | ChatGPT Memory Explained | ChatGPT Tutorial |Simplilearn # [93] macOS 버전은 Command+Space, Windows 버전은 Alt+Space [94] \[이데일리\] 챗GPT, 40일 만에 사용자 1천만 명 돌파…두번째 'AI 돌풍' 구독김현아 기자 # [95] \[뉴시스\] 챗GPT, 출시 두 달 만에 월 사용자 1억명 돌파" 입력2023.02.02. 오후 2:52 수정2023.02.02. 오후 4:05 기사원문 이종희 기자 1억명을 돌파 [96] ChatGPT passes exams from law and business schools ,Samantha Murphy Kelly By Samantha Murphy Kelly, CNN Business ,Updated 1:35 PM EST, Thu January 26, 2023 # [97] \[firstpost\] \[between the lines\] Anchored by Palki Sharma, January 23, 2023, 19:33:45 IST # [가] Healthcare, Language Processing ,ChatGPT Out-scores Medical Students on Complex Clinical Care Exam Questions ,A new study shows AI's capabilities at analyzing medical text and offering diagnoses — and forces a rethink of medical education. Jul 17, 2023 | Adam Hadhazy # [나] \[ScienceDaily\] Study finds ChatGTP outperforms physicians in providing high-quality, empathetic advice to patient questions ,Date: April 28, 2023 Source: University of California - San Diego # [100] \[firstpost\] \[between the lines\] Anchored by Palki Sharma, January 23, 2023, 19:33:45 IST # [가] [나] [103] 과거 산업혁명 시기 러다이트 운동 등, 이러한 문제는 생업과 직결되어 있기에 매우 민감한 문제인 경우가 많다. 따라서 개발사에서는 관련된 논란을 우려해 이런 코드를 심어둔 것으로 볼 수 있다. [104] 미국에서는 ChatGPT로 인해 교육 업체의 주가가 떨어지는 사태가 발생했다. # # 다만 듀오링고처럼 GPT와 협력하는 길을 택한 업체는 유동적이다. [105] Chat GPT는 어디까지나 'AI언어학습 모델'이다. 영어는 독해를 통한 내용의 본질 이해와 객관적인 내용 추론을 요구하는 문제가 주를 이루므로 언어학습 모델인 Chat GPT는 문제를 잘 푸는 것이 당연하다. 하지만 Chat GPT의 능력은 어디까지나 인간의 언어를 이해하여 대화 및 정보를 제공하는데 초점이 맞춰져 있기에, 간단한 수학문제가 아닌 대학수학능력시험의 수학영역 문제를 풀게 했을 때, 오답투성이가 나올 수밖에 없다. [106] 이렇게 되면 숙제를 한 사람과 안 한 사람의 실력 차이는 결국 시험에서 드러나니 변별력 문제가 감소한다. [107] 한국어로 물으면 “한국이 관리하고 있지만, 일본이 이의를 제기하며 어느 나라의 땅인지 정확히 결정되지 않았다”라는 식으로 표현한다. 사실 ChatGPT는 결국 사료 기반이라는 걸 생각하면 일본인은 (정치적으로 무관심한 사람이 다수이긴 하나) "다케시마"는 "일본 영토"라는 식으로 주장하고 한국인은 "독도"는 "대한민국 영토"라는 식으로 주장하는 사람이 다수이니 대중의 편향을 따라가는 것. [108] 세금 계산을 위해 필요하다 [109] 신사임당의 남편이 이원수인 것은 알고 어떤 유명한 자식을 낳은 것도 알지만 남편의 본관이나 그 유명한 자식은 율곡 이이인지 퇴계 이황인지를 헷갈려 하여 틀리는 식이다. [110] 이를테면 나는 역사상 가장 비극적인 사건 중 하나가 대동여지도 연금술사 폭동이라는 주장처럼 황당하고 재미있는 대체역사를 좋아하는데, 이와 비슷한 10개의 대체역사를 알려달라는 식으로 요청할 수 있다. 석기시대 AI, 로마 제국의 기계화 군대에 대한 답을 들을 수 있다. [111] 친일파라고 알려줄 때도 있다. [112] 파일:화면 캡처 2024-06-05 021003.png [113] 미 동부 시간 기준