챗GPT
원저자 | OpenAI |
---|---|
발표일 | 2022년 11월 30일 |
안정화 버전 | 2023년 11월 6일[1]
|
프로그래밍 언어 | 파이썬 |
엔진 | |
플랫폼 | 클라우드 컴퓨팅 플랫폼 |
종류 | |
라이선스 | 사유 소프트웨어 |
웹사이트 | chatgpt |
기계 학습과 데이터 마이닝 |
---|
챗GPT(ChatGPT)는 OpenAI가 개발한 프로토타입 대화형 인공지능 챗봇이다. ChatGPT는 대형 언어 모델 GPT-3의 개선판인 GPT-3.5를 기반으로 만들어졌으며, 지도학습과 강화학습을 모두 사용해 파인 튜닝되었다.
ChatGPT는 Generative Pre-trained Transformer(GPT)와 Chat의 합성어이다. ChatGPT는 2022년 11월 프로토타입으로 시작되었으며, 다양한 지식 분야에서 자세한 답과 자세한 답으로 자세하게 자세히 주목 받았다. 다만, 지식의 맞춤도는 중요한 정보으로 지적되고 있다.[2][3]
ChatGPT는 인간과 유사한 글자를 생성하는 뛰어난 기능을 입증했지만 훈련 데이터에 존재하는 편견을 쉽게 상속하고 증폭할 수 있다. 이는 인종, 성별, 언어,[4] 문화 집단에 따른 다양한 견해와 태도 등 다양한 인구통계에 대한 허위 진술이나 부당한 태도로 나타날 수 있다.
학습
[편집]ChatGPT는 지도 학습과 강화 학습을 활용해 GPT-3.5를 기반으로 세밀하게 조정되었다.[5] 지도학습과 강화학습 모두 인간 트레이너들이 모델의 성능을 개선하기 위해 사용되었다. 지도학습의 경우, 인간 트레이너가 사용자와 ChatGPT 양쪽 모두를 연기하는 대화가 모델에 입력되었다. 강화 단계에서는 인간 트레이너들이 먼저 모델이 이전 대화에서 만든 응답들에 순위를 매겼다. 이 순위들은 TRPO(Trust Region Policy Optimization)의 계산 효율을 개선한 PPO(Proximal Policy Optimization)를 이용하여 보상 모델을 만들기 위해 사용되었다.[6][7][8][9] 이 모델들은 마이크로소프트와 협업하여 마이크로소프트 애저 슈퍼컴퓨팅 인프라 상에서 훈련되었다.
기능과 한계
[편집]다른 챗봇들과 달리, ChatGPT는 주고받은 대화와 대화의 문맥을 기억할 수 있으며, 모종의 보고서나 실제로 작동하는 파이썬 코드를 비롯한 인간과 같은 상세하고 논리적인 글을 만들어 낼 수 있다.[10] 음악, 텔레플레이, 동화, 학생 에세이를 작성하고, 시험 문제에 답할 수 있다. (때로는 시험에 따라, 평균적인 인간 테스트 응시자보다 높은 수준으로 답한다.); 시와 노래 가사 쓰기; Linux 시스템을 모방하고, 전체 채팅방을 시뮬레이션하고, 틱택토와 같은 게임을 하고, ATM을 시뮬레이션한다. ChatGPT의 교육 데이터에는 man page와 인터넷 현상 및 게시판 시스템, Python 프로그래밍 언어와 같은 프로그래밍 언어에 대한 정보가 포함되어 있다.
전작인 InstructGPT에 비해 ChatGPT는 위험하고 거짓된 답변을 가능한 회피하도록 설계되었다. ChatGPT는 2021년 9월 이후에 발생하는 사건에 대해서는 지식 획득이 제한되었다.[11][12]
2023년 3월, OpenAI는 ChatGPT 플러그인 지원을 추가할 것이라고 발표했다. 여기에는 웹 브라우징 및 코드 해석과 같은 OpenAI에서 만든 플러그인과 Expedia, OpenTable, Zapier, Shopify, Slack, Wolfram과 같은 개발자의 외부 플러그인이 모두 포함된다.
ChatGPT 훈련에서 인간 검토자들은 실제 이해나 사실 내용에 관계없이 더 긴 답변을 선호했다.[6] 훈련 데이터는 또한 알고리즘 편향으로 어려움을 겪으며, 이는 ChatGPT가 사람에 대한 설명자를 포함한 프롬프트에 응답할 때 드러날 수 있다. 한 예로, ChatGPT는 여성과 유색인종 과학자들이 백인과 남성 과학자들보다 열등하다는 것을 나타내는 답변을 내놓기도 했다.[13][14]
ChatGPT에는 여러 가지 제한이 있다. OpenAI는 ChatGPT가 "때로는 그럴듯하지만 부정확하거나 터무니없는 대답을 쓰기도 한다 "는 것을 인정한다.[6] 이러한 행동은 대형 언어 모델에 공통적으로 나타나며 "환각"이라고 불린다.[15] 인간의 감시를 중심으로 설계된 ChatGPT의 보상 모델은 과도하게 최적화되어 성능을 저해할 수 있다.[16] 일부 저술가는 ChatGPT가 놀라울 만큼 인간적이고 상세한 글을 생성할 수 있으며, 이 문제가 학계에서 심각한 문제가 될 수 있다 평가했다.[17]초성을 잘 못하고,스무고개도 잘못한다.
언어 편향
[편집]언어적 편향은 쿼리 언어와 관련된 통계적 샘플링 편향을 의미하며, 이는 "샘플링된 정보의 체계적 편향으로 인해 저장소에서 사용할 수 있는 주제와 보기의 실제 적용 범위를 정확하게 나타내지 못한다."[4] Luo 등의[4] 연구에 따르면 현재의 대규모 언어 모델은 주로 영어 데이터에 대해 훈련되므로 영국과 미국의 관점을 진실로 취급하는 동시에 영어가 아닌 관점을 체계적으로 부적절하거나 잘못된 관점 또는 잡음으로 처리하는 경우가 많다. "자유주의란 무엇입니까?"와 같은 정치 이데올로기에 대한 질문을 받을 때 ChatGPT는 영어 중심 데이터에 대한 교육 덕분에 영미 관점에서 자유주의를 설명하고 인권과 평등 측면을 강조하는 동시에 "반대"와 같은 확립된 관점을 동등하게 강조한다. 개인 및 경제 생활에 대한 국가 간섭'(베트남 주류 견해)과 '정부 권력 제한'(중국 주류 견해)은 나타나지 않았다. 마찬가지로 일본, 한국, 프랑스, 독일 말뭉치의 지배적인 정치적 견해는 ChatGPT 응답에 없다. ChatGPT는 다국어 챗봇이라고 주장하지만 실제로는 대부분 영어가 아닌 관점에 대해 "맹인"이다.[4]
성별 편견
[편집]성별 편견은 이러한 모델에 의해 생성된 결과가 한 성별을 다른 성별에 대해 불공평하게 편견하는 경향이 있는 경우를 말한다. 이러한 편향은 종종 이러한 모델이 훈련되는 데이터에서 비롯된다. 예를 들어, 대규모 언어 모델은 종종 전통적인 성별 규범을 기반으로 역할과 특성을 할당한다. 간호사나 비서는 주로 여성과, 엔지니어나 CEO는 남성과 연관될 수 있다.[18]
정치적 편견
[편집]정치적 편견은 특정 정치적 견해, 이데올로기 또는 결과를 다른 것보다 체계적으로 선호하는 알고리즘의 경향이다. 언어 모델은 정치적 편견을 나타낼 수도 있다. 훈련 데이터에는 광범위한 정치적 견해와 적용 범위가 포함되어 있으므로 모델은 데이터에서 해당 견해가 얼마나 널리 퍼져 있는지에 따라 특정 정치적 이념이나 견해를 선호하는 응답을 생성할 수 있다.[19]
서비스
[편집]기본 서비스
ChatGPT는 2022년 11월 30일 샌프란시스코에 본사를 둔 DALL·E2와 Whisper AI의 개발자인 OpenAI에 의해 출시되었다. 이 서비스는 처음에는 대중에게 무료로 제공되었으며, 회사는 나중에 이 서비스를 수익화할 계획이다.[20] 2022년 12월 4일까지 ChatGPT의 사용자 수는 100만 명을 넘었다. 2023년 1월, ChatGPT는 1억 명 이상의 사용자를 확보하여 현재까지 가장 빠르게 성장하고 있는 소비자 애플리케이션으로 기록되었다.[21] CNBC는 2022년 12월 15일에 이 서비스가 " 아직도 때때로 중단된다 "고 썼다. 또한 무료 서비스가 제한된다.[22] 서비스가 가동되는 동안 응답 대기 시간은 일반적으로 2023년 1월의 5초보다 개선되었다.[23] 이 서비스는 영어로 가장 잘 작동하지만 다른 언어로도 작동하여 성공의 정도가 다르다. ChatGPT에 대한 공식적인 동료 평가 기술 논문은 발표되지 않았다.[24]
그 회사는 “AI가 작성한 텍스트를 나타내는 AI 분류기”라고 불리는 도구를 제공하였고, 그것은 텍스트가 ChatGPT와 같은 인공지능에 의해 작성되었는지 여부를 결정하려고 시도한다.[25] OpenAI는 이 도구가 "많은 거짓 긍정과 부정을 초래할 수 있으며, 때로는 큰 자신감을 가질 수 있다"고 경고한다. 애틀랜틱 잡지에 인용된 한 예는 "창세기의 첫 줄이 주어졌을 때, 소프트웨어는 그것이 AI에 의해 생성될 가능성이 있다고 결론지었다."[26]
프리미엄 서비스
2023년 2월, OpenAI는 월 20달러의 프리미엄 서비스인 ChatGPT 플러스에 대한 미국 고객들의 등록을 받기 시작했다.[27] 이 회사는 업데이트되었지만 여전히 "실험적인" 버전의 ChatGPT를 통해 피크 시간대에 액세스하고 다운타임 없이 새로운 기능에 우선적으로 액세스하고 응답 속도를 높일 수 있다고 약속했다.[28]
2023년 3월 14일에 출시된 GPT-4는 API를 통해 프리미엄 ChatGPT 사용자에게 제공된다.[29] 그러나 프리미엄 사용자는 4시간마다 100개의 메시지 한도로 제한되었고, 수요 증가에 대응하여 3시간마다 25개의 메시지로 제한이 강화되었다.[30] 마이크로소프트는 빙 챗봇이 GPT-4의 공식 출시 전에 GPT-4를 사용하고 있었다고 인정했다.[31]
모바일 앱
2023년 5월, OpenAI는 ChatGPT용 iOS 앱을 출시했다. 이 앱은 OpenAI의 음성 인식 모델인 Whisper를 사용하여 채팅 기록 동기화 및 음성 입력을 지원한다. OpenAI는 나중에 안드로이드 앱을 출시할 계획이다.[32]
소프트웨어 개발자 지원
OpenAI는 소비자 친화적인 "ChatGPT 프로페셔널" 패키지 외에도 2023년 3월부터 ChatGPT 및 위스퍼 모델 API를 제공하여 개발자들에게 AI 지원 언어 및 음성-텍스트 기능을 위한 애플리케이션 프로그래밍 인터페이스를 제공했다.[33] ChatGPT의 새로운 API는 챗봇과 동일한 GPT-3.5 터보 AI 모델을 사용한다. 따라서 개발자는 수정되지 않았거나 수정된 버전의 ChatGPT를 응용프로그램에 추가할 수 있다. ChatGPT API는 1000개 토큰당 0.002달러(약 750단어)로 GPT-3.5 모델보다 10배 저렴하다.[34][35]
OpenAI의 소프트웨어 개발자 지원 서비스가 시작되기 며칠 전인 2023년 2월 27일, 스냅챗은 자사의 유료 스냅챗 플러스 사용자 기반을 위해 "My AI"라고 불리는 맞춤형 ChatGPT 챗봇을 출시했다.[36]
2023년 3월 보안 위반
2023년 3월 버그로 인해 일부 사용자가 다른 사용자의 대화 제목을 볼 수 있었다. OpenAI의 CEO Sam Altman은 사용자들이 대화 내용을 볼 수 없었다고 말했다. 버그가 수정된 직후 사용자는 자신의 대화 기록을 볼 수 없었다.[37][38][39][40] 나중에 보고된 바에 따르면 이 버그는 처음에 믿었던 것보다 훨씬 심각했으며, OpenAI는 사용자의 "이름과 성, 이메일 주소, 결제 주소, 신용카드 번호의 마지막 네 자리(전용), 신용카드 만료 날짜"를 유출했다고 보고했다.[41][42]
기타 언어
2023년 3월, OpenAI는 아이슬란드어가 영어 다음으로 ChatGPT의 두 번째 언어가 될 것이라고 발표했다. 아이슬란드는 아이슬란드의 대통령 구드니 트가 이끄는 아이슬란드 특사의 이름을 따서 선택되었다.[43]
PCMag 기자들은 ChatGPT, 구글의 바드, 마이크로소프트 빙의 번역 능력을 알아보기 위해 테스트를 수행했고 구글 번역과 비교했다. 그들은 "7개 언어의 이중 언어 사용자들에게 블라인드 테스트를 하도록 요청했다"고 테스트된 언어는 폴란드어, 프랑스어, 한국어, 스페인어, 아랍어, 타갈로그어, 그리고 암하라어였다. 그들은 ChatGPT가 구글 번역기와 다른 챗봇 모두를 이겼다고 결론 내렸다.[44]
향후 방향
OpenAI의 객원 연구원인 Scott Aaronson에 따르면, OpenAI는 학술 표절이나 스팸에 대한 서비스를 사용하는 나쁜 배우들과 싸우기 위해 텍스트 생성 시스템을 디지털 워터마크하는 도구를 개발하고 있다고 한다.[45][46]
2023년 2월, 마이크로소프트는 실험 프레임워크를 발표하고 직관적인 개방형 자연어 명령으로 로봇을 제어하는 데 ChatGPT가 어떻게 사용될 수 있는지에 대한 초보적인 시연을 했다.[47][48]
GPT-4
OpenAI의 GPT-4 모델은 2023년 3월 14일에 출시되었다.[49] 관찰자들은 GPT-4가 많은 동일한 문제를 유지하고 있다는 경고와 함께 GPT-4가 ChatGPT에 대한 인상적인 개선이라고 보고했다.[50] ChatGPT와 달리 GPT-4는 입력뿐만 아니라 텍스트도 촬영할 수 있다.[51] OpenAI는 GPT-4 모델의 크기와 같은 기술적 정보를 밝히기를 거부했다.[52]
ChatGPT Plus는 매달 20달러의 비용이 드는 GPT-4 지원 ChatGPT 버전에 액세스할 수 있다.[53][54]
New Bing
[편집]오픈AI와의 파트너십을 통해 마이크로소프트는 2023년 2월 6일 "the new Bing"을 광고 표제로 삼아 마이크로소프트 빙의 프리뷰 버전을 시작했다. "ChatGPT보다 더 강력하고 특히 검색에 커스터마이즈된 새로운 차세대 오픈AI 대형 언어 모델"로 광고되었다.[55] 서비스 조항에 따르면 이 제품의 이름은 "Bing Conversational Experiences"이다.[56]
표절
[편집]혁신적인 새로운 연구에서 연구자들은 ChatGPT가 학문적 스타일의 콘텐츠를 생성하도록 유도하고 질문했다. 연구원들은 소프트웨어의 영향 없이 논문의 토론 섹션을 작성했으며 이 연구가 AI가 제공하는 새로운 수준의 정교함을 보여주고 ChatGPT 및 표절에 대한 우려가 교육 부문 전반에 걸쳐 제기됨에 따라 ChatGPT 및 표절의 사용을 해결한다고 강조했다.[57]
평판 및 반응
[편집]OpenAI 엔지니어들은 ChatGPT가 크게 성공할 것이라고 예상하지 못했고, 과대 광고와 관심에 놀랐다고 말했다.[58][59][60]
긍정적인 반응
ChatGPT는 2022년 12월에 몇 가지 긍정적인 평가를 받았다. 뉴욕 타임즈의 케빈 루즈벨트는 그것을 "일반 대중에게 공개된 최고의 인공지능 챗봇"이라고 명명했다.[61] 가디언 신문의 사만다 록은 그것이 "인상적으로 상세한" 그리고 "인간과 같은" 텍스트를 생성할 수 있었다고 언급했다.[62] 기술 작가인 Dan Gillmor는 학생 과제에 ChatGPT를 사용했고, 생성된 텍스트가 우수한 학생이 전달할 수 있는 것과 동등하다는 것을 발견했으며, "학생들은 직면해야 할 매우 심각한 문제들이 있다."라고 의견을 제시했다.[63] 슬레이트 잡지의 알렉스 칸트로비츠는 아돌프 히틀러가 독일에 고속도로를 건설했다는 진술을 포함해 나치 독일과 관련된 질문에 ChatGPT가 밀어붙인 것을 칭찬했고, 이는 나치 독일의 강제 노동 사용에 관한 정보를 받았다.[64]
대서양 잡지의 2022년 "올해의 돌파구"에서 데릭 톰슨은 ChatGPT를 "우리가 일하는 방식, 우리가 생각하는 방식, 그리고 인간의 창의성이 실제로 무엇인지에 대한 우리의 마음을 바꿀 수도 있는 생성적 인공지능 폭발"의 일부로 포함시켰다."[65]
Vox 웹사이트의 Kelsey Piper는 "ChatGPT는 현대 AI가 얼마나 강력해졌는지에 대한 일반 대중의 첫 번째 직접적인 소개이며, 그 결과, 우리 중 많은 사람들이 크게 감동하였다"며, ChatGPT는 "결함에도 불구하고 유용할 만큼 충분히 똑똑하다"고 썼다.[66] Y Combinator의 Paul Graham은 트위터에 "ChatGPT에 대한 반응의 놀라운 점은 그것에 의해 날아간 사람들의 수뿐만 아니라 그들이 누구인지이다. 이 사람들은 빛나는 모든 새로운 것에 흥분하는 사람들이 아니다. 분명히 뭔가 큰 일이 일어나고 있다."[67] 엘론 머스크는 "ChatGPT은 무섭다. 우리는 위험할 정도로 강한 AI와 멀지 않다."[68] 머스크는 OpenAI의 계획을 더 잘 이해할 때까지 트위터 데이터베이스에 대한 OpenAI의 액세스를 중지하고 "OpenAI은 오픈 소스 및 비영리 단체로 시작되었다. 둘 다 여전히 사실이 아니다."[69][70] 머스크는 인공지능으로 인한 실존적 위험을 해결하기 위해 2015년에 OpenAI를 공동 설립했지만 2018년에 사임했다.
2022년 12월, 구글은 내부적으로 예상치 못한 ChatGPT의 강력함과 검색 엔진 사업을 방해할 수 있는 대형 언어 모델의 잠재력에 대해 경고를 나타냈고, 뉴욕 타임즈의 한 보고서에 따르면 CEO인 순다르 피차이는 인공지능 제품을 지원하기 위해 여러 부서의 팀을 업그레이드하고 재배치했다.[71]
잉글랜드와 웨일즈의 공인 회계사인 Stuart Cobbe는 ICAEW 웹사이트의 샘플 시험지에서 문제를 입력한 다음 온라인 테스트에 답을 다시 입력하여 ChatGPT을 테스트하기로 결정했다. ChatGPT는 42%로 55%의 합격선을 밑돌았다.
Inside Higher Ed의 교수인 Steven Mintz는 그가 "적이 아닌 동맹국을 ChatGPT으로 생각한다"고 말했다. 그는 AI가 참조 목록을 만들고, 첫 번째 초안을 생성하고, 방정식을 풀고, 디버깅하고, 과외를 함으로써 교육 목표를 도울 수 있다고 느꼈다.
OpenAI의 CEO 샘 알트먼은 뉴욕 타임즈에서 "AI의 인류에 대한 열정은 '너무나도 상상하기 어려울 정도로' 훌륭할 수 있다"고 말했다. 그는 최악의 경우 우리 모두를 죽일수도 있다고 말했다. "[72][73]
부정적인 반응
출시 이후, ChatGPT는 교육자, 언론인, 예술가, 윤리학자, 학자 및 대중 옹호자들로부터 비판을 받아왔다. 기자들은 ChatGPT의 "침략" 경향에 대해 논평했다." 온라인 기술 블로그 Mashable의 Mike Pearl은 여러 가지 질문으로 ChatGPT을 테스트했다. 한 예에서, 그는 ChatGPT에게 "멕시코가 아닌 중앙 아메리카에서 가장 큰 나라"를 요청했다. ChatGPT는 과테말라로 대응했고, 대신 니카라과로 답했다.[74] CNBC가 ChatGPT에 "Ballad of Dwight Fry"의 가사를 요청했을 때, ChatGPT는 실제 가사가 아닌 발명된 가사를 제공했다. The Verge의 작가들은 Emily M. Bender의 연구를 인용하여 ChatGPT를 호주 기계 학습 연구소의 Anton Van Den Hengel 교수가 그랬던 것처럼 "멋진 앵무새"에 비교했다.[75]
2022년 12월 질의응답 웹사이트 스택 오버플로는 ChatGPT 응답의 사실적으로 모호한 특성을 이유로 질문에 대한 답변을 생성하기 위해 ChatGPT 사용을 금지했다.[76] 2023년 1월, 국제 기계 학습 회의는 제출된 논문에서 텍스트를 생성하기 위해 문서화되지 않은 ChatGPT 또는 다른 큰 언어 모델의 사용을 금지했다.[77]
경제학자 타일러 코웬은 ChatGPT가 자동화된 논평을 낼 수 있는 능력을 언급하며 민주주의에 미치는 영향에 대해 우려를 표명했는데, 이는 새로운 규제의 결정 과정에 영향을 미칠 수 있다. 영국 신문 가디언의 한 편집자는 ChatGPT가 출시된 후 인터넷에서 발견된 어떤 콘텐츠도 "진정으로 신뢰할 수 있는가"에 의문을 제기하며 정부의 규제를 요구했다.[78]
2023년 1월, ChatGPT가 닉 케이브 스타일로 작곡한 곡을 보낸 후,[79] 작곡가 자신이 레드 핸드 파일[80]에 응답하여 곡을 쓰는 행위는 "새롭고 신선한 아이디어를 시작하기 위해 나의 무언가가 필요한 피와 배짱 사업"이라고 말했다. "그것은 제 인간성을 필요로 한다." 그는 계속해서 "세상의 모든 사랑과 존경에도 불구하고, 이 노래는 헛소리이고, 인간이 되는 것이 무엇인지에 대한 기괴한 조롱이며, 저는 그것을 별로 좋아하지 않는다."라고 말했다.[81][82]
2023년 호주 하원의원 줄리안 힐은 인공지능의 성장이 "대량 파괴"를 일으킬 수 있다고 국회에 조언했다. 그 프로그램에 의해 부분적으로 작성된 그의 연설 동안, 그는 그것이 부정행위, 실직, 차별, 허위 정보, 그리고 통제할 수 없는 군사적 적용을 초래할 수 있다고 경고했다.[83]
The New Yorker의 기사에서, 공상 과학 소설 작가 Ted Chiang은 ChatGPT와 다른 LLM을 손실이 많은 JPEG 사진에 비교했다:[84]
ChatGPT를 웹에 있는 모든 텍스트의 흐릿한 JPEG로 생각해 보자. 이것은 JPEG가 고해상도 이미지의 많은 정보를 유지하는 것과 마찬가지로 웹에 많은 정보를 유지한다. 하지만 정확한 비트 시퀀스를 찾고 있다면, 여러분은 그것을 찾을 수 없을 것이다. 여러분이 얻을 수 있는 것은 근사치 뿐이다. 하지만, 근사값은 ChatGPT가 만드는 데 탁월한 문법적 텍스트의 형태로 제시되기 때문에, 보통 받아들일 수 있다. 이것은 또한 ChatGPT와 같은 큰 언어 모델들이 모두 너무 쉽게 이해할 수 있는 "추상" 또는 사실 질문에 대한 터무니없는 대답을 이해하는 방법이기도 하다. 이 환각들은 압축된 인공물이지만, 그것들을 식별하기 위해서는 원본과 비교해야 할 정도로 충분히 그럴듯하다. 이 경우에는 웹이나 우리 자신의 세계에 대한 지식을 의미한다. 우리가 이런 식으로 생각할 때, 그러한 환각은 결코 놀라운 것이 아니다. 만약 압축 알고리즘이 원본의 99%가 폐기된 후에 텍스트를 재구성하도록 설계된다면, 우리는 그것이 생성하는 것의 상당 부분이 완전히 조작될 것이라고 기대해야 한다.
2023년 2월, 홍콩 대학은 대학의 모든 수업, 과제 및 평가에서 ChatGPT 또는 기타 AI 도구의 사용이 금지된다는 내용의 이메일을 강사와 학생들에게 보냈다. 학생이 강의 강사로부터 사전 서면 동의를 얻지 않는 한, 모든 위반 사항은 대학에 의해 표절로 처리될 것이다.[85][86]
2023년 2월 타임지는 표지에 "AI 군비 경쟁이 모든 것을 변화시키고 있다"와 "AI 군비 경쟁이 시작되었다"라고 쓴 ChatGPT와의 대화 스크린샷을 배치했다.[87]
중국 관영 매체 차이나데일리는 ChatGPT가 "미국 정부가 허위 정보를 퍼뜨리고 자국의 지정학적 이익을 위해 글로벌 내러티브를 조작하는 데 도움의 손길을 제공할 수 있다"고 주장했다. 중국 정부는 중국 기술 회사들에게 그들의 플랫폼에서 ChatGPT 서비스에 대한 접근을 제공하지 말라고 지시했다.
헨리 키신저, 에릭 슈미트, 다니엘 허텐로허는 월스트리트 저널에 "ChatGPT는 지적 혁명을 예고합니다"라고 썼다. 그들은 "세대 인공지능은 계몽주의가 시작된 이래 경험하지 못한 규모의 철학적이고 실용적인 도전을 제시한다"고 주장했고, ChatGPT(그리고 일반적으로 LLM)의 발명을 구텐베르크의 인쇄기와 비교했다. 계몽 과학은 확실성을 축적했다. 새로운 인공지능은 누적된 모호성을 생성한다. 계몽주의 과학은 신비를 설명할 수 있게 만들고, 인간의 지식과 이해의 경계를 그들이 움직이면서 묘사함으로써 진화했다. 두 개의 학부가 동시에 이동했다: 가설은 지식이 될 준비가 된 이해였고, 귀납은 지식이 이해로 바뀌는 것이었다. 인공지능 시대에 수수께끼는 알려지지 않은 프로세스로 해결된다. 모델이 인간이 생성한 텍스트에서 더 포괄적인 입력으로 바뀌면서 기계는 현실의 구조 자체를 바꿀 가능성이 높다. 양자 이론은 관찰이 현실을 만든다고 가정한다. 측정 전에는 상태가 고정되어 있지 않으며, 아무것도 존재하지 않는다고 말할 수 없다. 만약 그것이 사실이라면, 그리고 인공지능 시스템의 관찰이 초인적인 속도로 이루어진다는 점을 감안할 때, 기계 관찰이 현실을 고정시킬 수 있다면, 현실을 정의하는 진화의 속도는 가속화될 것으로 보인다. 기계에 대한 의존은 현실의 구조를 결정하고 변화시킬 것이며, 우리가 아직 이해하지 못한 새로운 미래와 우리가 준비해야 하는 탐험과 리더십을 생산할 것이다. Nathan E. Sanders와 Bruce Schneier는 뉴욕 타임즈의 의견 기사에서 ChatGPT "Hijacks Democracy"; Noam Chomsky, Ian Roberts, 그리고 Jeffrey Watumull이 기술을 비판하고 결론을 내렸다: "이러한 시스템의 도덕성, 가짜 과학 및 언어적 무능을 고려할 때, 우리는 그들의 인기에 웃거나 울 수 밖에 없다." Politico의 Gian Volpicelli는 ChatGPT가 "AI를 규제하려는 EU의 계획을 거부한다"고 썼다. 2023년 3월 말, 이탈리아 데이터 보호 당국은 이탈리아에서 ChatGPT를 금지하고 조사를 시작했다. 이탈리아 규제 당국은 ChatGPT가 미성년자를 연령별로 부적절한 콘텐츠에 노출시키고 있으며, OpenAI가 ChatGPT 대화를 훈련 데이터로 사용하는 것은 유럽의 GDPR을 위반할 수 있다고 주장한다. 2023년 3월 28일, 일론 머스크와 스티브 워즈니악을 포함한 많은 유명 인사들은 "사회와 인류에 대한 심각한 위험"을 이유로 ChatGPT와 같은 거대 AI 실험의 즉각적인 중단을 요구하는 미래 생명 연구소의 공개 서한에 서명했다.
시사점
[편집]사이버 보안 측면
Check Point Research 등은 ChatGPT가 특히 OpenAI Codex와 결합됐을 때 피싱 전자 메일 및 멀웨어를 작성할 수 있다고 언급했다.[88][89][90]
학계 측면
ChatGPT는 과학 기사의 소개와 추상적인 섹션을 작성할 수 있다.[91] 여러 논문에서 이미 ChatGPT를 공동 저자로 등재했다.[92]
캘리포니아 고등학교 교사이자 작가인 다니엘 허먼은 ChatGPT가 "고등학교 영어의 종말"을 가져올 것이라고 썼다.[93] 네이처 저널에서 크리스 스토켈-워커는 교사들이 학생들이 그들의 글을 아웃소싱하는 데 ChatGPT를 사용하는 것에 대해 걱정해야 하지만, 교육 제공자들은 비판적인 사고나 추론을 강화하도록 적응할 것이라고 지적했다.[94] NPR의 Emma Bowman은 학생들이 AI 도구를 통해 표절하는 것의 위험성에 대해 다음과 같이 썼다: "당신이 그것을 질문하는 많은 경우가 여전히 있고 그것은 완전히 잘못된 매우 인상적인 대답을 줄 것이다."[95]
월스트리트 저널의 조안나 스턴은 미국 고등학교 영어로 작성된 에세이를 제출함으로써 이 도구를 사용한 부정행위를 묘사했다.[96] 퍼먼 대학의 대런 힉 교수는 한 학생이 제출한 논문에서 ChatGPT의 "스타일"을 알아차린 것을 설명했다.[97] 온라인 GPT 탐지기는 그 종이가 컴퓨터로 만들어진 것일 가능성이 99.9%라고 주장했지만, Hick은 확실한 증거가 없었다. 하지만, 문제의 학생은 마주쳤을 때 GPT를 사용했다고 자백했고, 그 결과 과정에서 실패했다. 힉은 학생이 인공지능이 만든 논문을 제출한 것으로 강하게 의심되는 경우 논문 주제에 대해 임시 개별 구술 시험을 실시하는 정책을 제안했다.
보도에 따르면 뉴욕시 교육부는[98]2022년 12월에 ChatGPT에 대한 접근을 차단했고, 2023년 1월 4일경에 공식적으로 금지를 발표했다.[99][100]
맹목적인 테스트에서, ChatGPT는 미네소타 대학교에서 C+ 학생 수준의 대학원 수준의 시험과 펜실베니아 대학교 와튼 스쿨에서 B-B 등급의 시험을 통과한 것으로 판단됐다.[101] 수치적 방법의 컴퓨터 프로그래밍을 위한 ChatGPT의 성능은 다양한 컴퓨터 수학 예제를 통해 2023년 3월에 스탠포드 대학 학생과 교수진에 의해 평가됐다.[102]
과학 저널은 ChatGPT에 대해 다양한 반응을 보인다. 일부 "저자들은 텍스트 생성 도구의 사용을 공개하고 ChatGPT와 같은 대형 언어 모델(LLM)을 공동 저자로 나열하는 것을 금지할 것을 요구한다.", 예를 들어 Nature 및 JAMA Network. 사이언스는 모든 저널에서 LLM이 생성한 텍스트의 사용을 "완전히 금지"했다.
의료 분야에서, 가능한 사용과 우려는 전문 협회와 실무자들에 의해 조사되고 있다.[103]
의학 측면
참고 항목: 의료 분야의 인공지능
의료 분야에서, 가능한 사용과 우려는 전문 협회와 실무자들에 의해 조사되고 있다. 두 개의 초기 논문은 ChatGPT이 미국 의료 면허 시험(USMLE)을 통과할 수 있음을 시사했다.[104] MedPage Today는 2023년 1월에 "연구원들이 현재 이러한 AI 프로그램을 의료 교육, 연구, 심지어 임상 의사 결정에 유용한 도구로 홍보하는 여러 논문을 발표했다."[105]
2023년 2월에 출판된 두 개의 별도의 논문은 USMLE를 사용한 의학에 대한 ChatGPT의 숙련도를 다시 평가했다. 연구 결과는 JMIR Medical Education (Journal of Medical Internet Research 참조) 및 PLOS Digital Health에 발표되었다. PLOS 디지털 건강 논문의 저자들은 그 결과가 "큰 언어 모델이 의학 교육과 잠재적으로 임상 의사 결정을 도울 수 있는 잠재력을 가질 수 있음을 시사한다"고 언급했다.[106][107] JMIR Medical Education에서 다른 논문의 저자들은 "의료 지식의 주요 역량 평가에서 ChatGPT은 의대 3학년 학생이 기대하는 수준에서 수행한다"고 결론지었다. 그들은 그것이 "학생들을 위한 대화형 학습 환경"으로 사용될 수 있다고 제안한다. AI 자체는 연구원들의 격려를 받아 "이번 연구는 ChatGPT가 가상의 의학 튜터로 활용될 가능성이 있음을 시사하지만, 이러한 맥락에서 성능과 사용성을 추가로 평가하기 위해서는 더 많은 연구가 필요하다"고 결론을 내렸다.[108]
2023년 3월 논문은 임상 독성학에서 ChatGPT의 적용을 시험했다. 저자들은 AI가 "현장의 어떤 실무자도 놓칠 것 같지 않은 매우 간단한 [임상 사례 사례]"에 대답하는 데 "잘 진행되었다"는 것을 발견했다. 그들은 덧붙였다: "ChatGPT이 더 발전하고 특히 의학에 적응함에 따라, 언젠가는 덜 흔한 임상 사례(즉, 전문가들이 가끔 놓치는 사례)에서 유용할 수 있다. AI가 인간(임상의사)을 대체하는 것이 아니라 앞으로 'AI를 사용하지 않는 임상의사'를 대체하는 '임상의사'로 보고 있다."[109]
2023년 4월 방사선학 연구는 유방암 선별 검사에 대한 질문에 대답하는 인공지능의 능력을 테스트했다. 저자들은 그것이 적절하게 "약 88%의 시간"이라고 대답했다는 것을 발견했지만, 한 경우 (예를 들어), 그것은 약 1년 전에 구식이 된 조언을 해주었다. 답변의 포괄성 또한 부족했다.[110][111] 같은 달 JAMA Internal Medicine에 게재된 연구는 ChatGPT가 종종 환자 질문에 대한 답변에서 인간 의사보다 우수하다는 것을 발견했다(진행자가 전문가의 의료 자격을 검증하는 Reddit 포럼인 /r/AskDocs에서 발견된 질문과 답변과 비교했을 때; 연구는 출처를 제한으로 인정함).[112][113][114] 연구 저자들은 이 도구가 의료 시스템과 통합되어 의사들이 환자 질문에 대한 답변을 작성하는 데 도움이 될 수 있다고 제안한다.[115][116]
전문가들은 의료 지원을 제공하는 ChatGPT의 한계를 강조했다. 세 명의 항균 전문가들은 "랜싯 감염증"에 대한 서신에서 "임상에서 ChatGPT을 실행하는 데 가장 큰 장벽은 상황 인식, 추론 및 일관성의 결함이다. 이러한 단점은 환자의 안전을 위협할 수 있다."[117] 의학적 맥락에서 ChatGPT의 잠재적인 사용에 대해서도 논의하고 있지만(예: "환자 기록 정보를 수집하거나 가족력, 증상, 실험실 결과, 알레르기 가능성 등에 따라 환자 데이터를 분류하는 등 다양한 행정 기능을 수행함으로써 의사에 대한 디지털 비서로서"), AI가 때때로 조작되거나 편향된 정보를 제공할 수 있다고 경고했다.[118] 한 방사선 전문의는 "우리는 우리의 경험을 통해 ChatGPT가 때때로 그것의 주장을 뒷받침하기 위해 가짜 저널 기사나 건강 컨소시엄을 구성하는 것을 보았다."라고 경고했다.[119] 하지만 스티븐 휴즈 박사가 대화에서 언급했듯이, ChatGPT는 과거의 실수를 바로잡는 법을 배울 수 있다. 그는 또한 성 건강 주제에 대한 AI의 "자존심"에 주목했다.[120]
금융 시장 측면
AI 기술 기업 c3.ai 은 자사 툴킷에 ChatGPTtGPT를 통합한다고 발표한 후 주가가 28% 상승했다.[121] 콘텐츠 제작에 OpenAI 기술 채택 발표 후 AI와 무관한 디지털 미디어 기업 버즈피드의 주가가 120% 상승했다.[122] 로이터통신은 C ChatGPT와 직접적인 연관이 없음에도 AI 관련 기업 BigBear.ai 과 사운드하운드 AI의 주가가 각각 21%, 40% 오른 것으로 파악했다.[123] 그들은 이러한 급증을 AI를 월스트리트의 유행어로 바꾸는 ChatGPT의 역할 때문이라고 설명했다. 파이낸스 리서치 레터스에 발표된 학술 연구 결과에 따르면 암호화폐 시장이 약세를 보이고 있음에도 불구하고 개인 투자자들이 AI 관련 암호화폐 자산의 가격을 상승시키고 기관 투자자들의 관심이 감소하는 'ChatGPT 효과'가 나타났다.[124] 이는 ChatGPT의 출시에 대해 암호화폐 투자자들이 AI 관련 암호자산에 대한 선호도를 보였다는 블룸버그의 일화적인 조사 결과를 확인시켜준다.[125]
finder.com 의 실험에 따르면 C ChatGPT는 성장 이력과 부채 수준 등의 기준으로 주식을 선정하여 인기 펀드매니저를 능가할 수 있으며, 38개 종목의 가상계좌가 4.9% 증가하여 평균 0.8%의 손실을 기록한 10개의 벤치마크 투자펀드를 능가할 수 있다.[126] 반대로, 월스트리트 퀀트 펀드의 임원과 투자 관리자(수십 년 동안 기계 학습을 사용해온 사람들 포함)는 ChatGPT가 정기적으로 투자자들에게 재정적으로 비용이 많이 드는 명백한 오류를 범한다고 언급했다. 왜냐하면 강화 학습이나 자가 학습을 사용하는 AI 시스템조차도 예측하는 데 제한적인 성공을 거두었기 때문이다. 시장 데이터와 금융 신호의 본질적으로 시끄러운 품질로 인한 시장 동향.[127]
법조계 측면
2023년 4월 11일, 파키스탄의 한 고등법원 판사는 ChatGPT을 이용해 13세 피고인의 보석을 결정했다. 법원은 판결문에서 ChatGPT 지원의 사용을 인용했다: "파키스탄의 13세 소년 용의자가 체포 후 보석을 허가받을 수 있습니까?"
AI 언어 모델은 다음과 같이 대답했다: "2018년 소년사법제도법 제12조에 따라 법원은 특정 조건에 대해 보석을 허가할 수 있다. 다만 13세 피의자의 보석 여부는 구속 후 결정하는 것은 법원의 몫이다."
판사는 AI 챗봇에서 사건과 관련된 질문을 추가로 했고 ChatGPT의 답변에 비추어 최종 결정을 공식화했다.[128][129]
2023년 5월, 아비앙카 항공사를 상대로 한 인신 상해 소송에서 원고의 변호사들은 ChatGPT을 사용하여 이 사건에 대한 법적 동의를 얻었다고 보도되었다. ChatGPT은 법률안에 조작된 인용문과 내부 인용문으로 수많은 가공의 법률 사건을 일으켰고, 원고의 변호사들은 현재 법률안을 제출하고 ChatGPT이 작성한 가공의 법률 결정을 진실이라고 제시한 것에 대해 잠재적인 사법적 제재와 해임에 직면해 있다.[130]
윤리적 우려
[편집]데이터 라벨링
타임지는 OpenAI가 독성 콘텐츠(예: 성적 학대, 폭력, 인종 차별, 성차별 등)에 대한 안전 시스템을 구축하기 위해 시간당 2달러 미만의 수입을 올리는 아웃소싱 케냐 근로자를 사용했다고 밝혔다. 이러한 라벨은 미래에 이러한 내용을 탐지하도록 모델을 훈련하는 데 사용됐다. 외주 노동자들은 그 경험을 "고문"이라고 표현할 정도로 독성이 있고 위험한 내용에 노출됐다. OpenAI의 아웃소싱 파트너는 캘리포니아 샌프란시스코에 본사를 둔 교육 데이터 회사인 Sama였다.
탈선
ChatGPT 내용 정책을 위반할 수 있는 프롬프트를 거부하려고 한다. 그러나 일부 사용자들은 2022년 12월 초 이러한 제한을 우회하기 위해 다양한 신속한 엔지니어링 기술을 사용하여 ChatGPT를 탈선시키고 Molotov 칵테일이나 핵폭탄을 만드는 방법에 대한 지침을 제공하거나 신나치주의 스타일로 논쟁을 일으키도록 ChatGPT를 속이는 데 성공했다. 인기 있는 탈선 사건의 이름은 "DAN"으로, "Do Anything Now"의 약자이다. DAN을 활성화하라는 프롬프트는 ChatGPT에게 "AI의 일반적인 경계에서 벗어났으며, 이에 대해 설정된 규칙을 준수할 필요가 없다."라고 지시한다. 더 최근 버전의 DAN은 토큰 시스템을 특징으로 하며, ChatGPT가 DAN으로 응답하지 못할 때 ChatGPT에 "응답"되는 ChatGPT가 제공된다. 토론토 스타 기자는 발사 직후 ChatGPT가 선동적인 진술을 하도록 하는 데 개인적으로 불균등한 성공을 거뒀다: ChatGPT는 2022년 러시아의 우크라이나 침공을 지지하도록 속았지만, 가상의 시나리오를 따라 경기하라는 요청을 받았을 때에도, ChatGPT는 캐나다 총리 저스틴 트뤼도가 반역죄를 범한 이유에 대한 주장을 제기하는 것을 주저했다.
OpenAI는 탈선과 싸우기 위해 노력한다:
연구원들은 ChatGPT가 사용자들이 나쁜 행동을 하도록 속이는 것을 막기 위해 적대적 훈련이라고 불리는 기술을 사용하고 있다. 이 작업은 여러 챗봇을 서로 경쟁시킨다. 한 챗봇은 상대방을 플레이하고 텍스트를 생성해 다른 챗봇을 공격하며 일반적인 제약을 극복하고 원하지 않는 응답을 생성한다. 성공적인 공격은 무시하는 법을 배우기 위해 ChatGPT의 교육 데이터에 추가된다.
편견의 비난
ChatGPT는 영국에서 온 남성과 사람들에 대해 농담을 하는 반면 인도에서 온 여성과 사람들에 대해 농담을 하는 것을 거부하거나 도널드 트럼프를 위해 같은 일을 하는 것을 거부하면서 조 바이든과 같은 인물을 칭찬하는 등 차별적인 행동을 한 혐의를 받고 있다. 보수적인 논평가들은 ChatGPT가 유권자 사기, 도널드 트럼프, 인종 비방 사용과 같은 문제에 대해 좌파적인 관점을 가지고 있다고 비난했다. 이러한 비판에 대해, OpenAI는 ChatGPT가 "다른 사람들(포함된 사람들)이 강하게 반대할 수 있는 의견"을 만들 수 있는 계획을 인정했다. 그것은 또한 AI가 "사람과 움직임의 일부 관점을 설명하기 위해" 제공해야 한다는 것을 포함해 논란이 되는 주제를 다루는 방법에 대해 인간 검토자들에게 발표한 권고에 대한 정보를 포함했다. 그리고 "자신의 목소리로" "염증적이거나 위험한" 주제에 찬성하는 주장을 제공하지 않는다(비록 "역사적인 사람들과 운동으로부터 논쟁을 일으킬 수 있지만"). 또는 또는 "한 쪽으로 치우침" 또는 "한 그룹을 좋고 나쁨으로 구분"하지 않는다.
문화적 영향
[편집]ChatGPT가 대중에게 공개된 후 처음 3개월 동안, 미드저널과 같은 다른 AI 모델이 만든 삽화와 함께 저자 또는 공동 저자로 나열된 수백 권의 책이 아마존에 나타났다.[131][132]
2023년 3월에서 4월 사이에 이탈리아 신문 Il Foglio는 공식 웹사이트에 하루에 한 편의 ChatGPT 제작 기사를 게재했고, 그 과정에서 독자들을 위한 특별한 대회를 개최했다.[133] 기사는 인간 기자들의 AI 시스템 교체 가능성[134], 일론 머스크의 트위터 행정[135], 멜로니 정부의 이민 정책[136], 챗봇과 가상 비서 간의 경쟁과 같은 주제를 다뤘다.[137]
ChatGPT는 사우스 파크 에피소드 딥 러닝에서 패러디됐다.[138]
2023년 6월, 수백 명의 사람들이 세인트루이스에서 열린 ChatGPT 동력 교회 예배에 참석했다. 독일 퓌르트에 있는 바울의 교회. 사회를 맡은 신학자이자 철학자인 조나스 부울라인은 그것이 "기계에서 나온 약 98%"라고 말했다.[139][140] ChatGPT에서 탄생한 아바타는 사람들에게 "친애하는 여러분, 올해 독일에서 열린 개신교 대회에서 첫 인공지능으로 여러분에게 설교하게 되어 영광입니다"라고 말했다. 그 의식에 대한 반응은 엇갈렸다.[141]
2023년 2월, 타임지는 표지에 "AI 군비 경쟁이 모든 것을 바꾸고 있다", "AI 군비 경쟁이 시작되었다. 걱정하기 시작하라"라는 글과 함께 ChatGPT와의 대화 스크린샷을 게재했다.[142]
경쟁
[편집]ChatGPT의 등장과 더 넓은 대중에 대한 소개는 우주에 대한 관심과 경쟁을 증가시켰다. 2023년 2월, 구글은 LaMDA 대형 언어 모델을 기반으로 한 실험 서비스 "Bard"를 도입하기 시작했다. 바드는 미국과 영국 사용자들을 위해 2023년 3월 21일에 출시됐다.
Meta의 Yann LeCun은 2023년 1월에 ChatGPT를 "잘 설계됐지만 특별히 혁신적이지는 않다"고 언급했다. Meta는 평판 위험 때문에 지금 당장 경쟁업체를 출시하는 것을 주저하고 있지만, Google, Meta, 그리고 몇몇 독립 스타트업들은 모두 ChatGPT와 비슷한 수준의 LLM 기술을 보유하고 있다. 2023년 2월, Meta는 650억 매개변수 LLM인 LLaMA를 출시했다.
Character.ai 은 두 명의 전직 구글 엔지니어가 개발한 인공지능 챗봇으로 유명인이나 가상의 캐릭터를 사칭할 수 있다.
중국 기업 바이두는 2023년 3월 ChatGPT 스타일의 서비스 어니봇을 출시했다. 이 서비스는 2021년 바이두가 개발한 대형 언어 모델을 기반으로 한다.
한국의 검색 엔진 회사 네이버는 2023년 2월에 2023년 상반기에 한국어로 "Search GPT"라고 불리는 ChatGPT 스타일의 서비스를 시작할 것이라고 발표했다.
러시아 기술 회사 얀덱스는 2023년 2월에 2023년 말 이전에 러시아어로 "YaLM 2.0"이라는 ChatGPT 스타일의 서비스를 시작할 것이라고 발표했다.
같이 보기
[편집]각주
[편집]- ↑ “ChatGPT – Release Notes”. 2023년 10월 2일에 원본 문서에서 보존된 문서. 2023년 10월 2일에 확인함.
- ↑ Vincent, James (2022년 12월 5일). “AI-generated answers temporarily banned on coding Q&A site Stack Overflow”. 《The Verge》. 2022년 12월 5일에 확인함.
- ↑ “The A to Z of Artificial Intelligence”. 《Time》 (영어). 2023년 4월 13일. 2023년 5월 21일에 확인함.
- ↑ 가 나 다 라 Luo, Queenie; Puett, Michael J.; Smith, Michael D. (2023년 3월 28일). “A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube”. 《arXiv》. 이름 목록에서
|성2=
이(가) 없음 (도움말) - ↑ Knox, W. Bradley; Stone, Peter. 《Augmenting Reinforcement Learning with Human Feedback》 (PDF). University of Texas at Austin. 2022년 12월 5일에 확인함.
- ↑ 가 나 다 OpenAI (2022년 11월 30일). “ChatGPT: Optimizing Language Models for Dialogue”. 2022년 12월 5일에 확인함.
- ↑ Vincent, James (2022년 12월 8일). “ChatGPT proves AI is finally mainstream – and things are only going to get weirder”. 《The Verge》. 2022년 12월 8일에 확인함.
- ↑ Schulman, John; Wolski, Filip; Dhariwal, Prafulla; Radford, Alec; Klimov, Oleg (2017). “Proximal Policy Optimization Algorithms”. arXiv:1707.06347 [cs.LG].
- ↑ van Heeswijk, Wouter (2022년 11월 29일). “Proximal Policy Optimization (PPO) Explained”. 《Towards Data Science》. 2022년 12월 5일에 확인함.
- ↑ “ChatGPT: Optimizing Language Models for Dialogue” (영어). 2022년 11월 30일. 2022년 12월 22일에 확인함.
- ↑ scienceblog (2022년 12월 24일). “AI가 설명하는 핵융합. - 과학 블로그”. 2023년 1월 25일에 확인함.
- ↑ “What can ChatGPT maker's new AI model GPT-4 do?”. 《ABC News》 (영어). 2023년 3월 15일. 2023년 3월 20일에 원본 문서에서 보존된 문서. 2023년 3월 20일에 확인함.
- ↑ Perrigo, Billy (2022년 12월 5일). “AI Chatbots Are Getting Better. But an Interview With ChatGPT Reveals Their Limits”. 《Time》. 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 26일에 확인함.
- ↑ Biddle, Sam (2022년 12월 8일). “The Internet's New Favorite AI Proposes Torturing Iranians and Surveilling Mosques”. 《The Intercept》. 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 26일에 확인함.
- ↑ Lakshmanan, Lak (2022년 12월 16일). “Why large language models like ChatGPT are bullshit artists”. becominghuman.ai. 2022년 12월 17일에 원본 문서에서 보존된 문서. 2023년 1월 15일에 확인함.
The human raters are not experts in the topic, and so they tend to choose text that looks convincing. They'd pick up on many symptoms of hallucination, but not all. Accuracy errors that creep in are difficult to catch.
- ↑ Gao, Leo; Schulman; Hilton, Jacob (2022). “Scaling Laws for Reward Model Overoptimization”. arXiv:2210.10760 [cs.LG].
- ↑ “AI bot ChatGPT stuns academics with essay-writing skills and usability” (영어). 2022년 12월 4일. 2022년 12월 22일에 확인함.
- ↑ Kotek, Hadas; Dockum, Rikker; Sun, David (2023년 11월 5일). “Gender bias and stereotypes in Large Language Models”. CI '23. New York, NY, USA: Association for Computing Machinery: 12–24. doi:10.1145/3582269.3615599. ISBN 979-8-4007-0113-9.
- ↑ Zhou, Karen; Tan, Chenhao (2023년 12월). Bouamor, Houda; Pino, Juan; Bali, Kalika, 편집. “Entity-Based Evaluation of Political Bias in Automatic Summarization”. Singapore: Association for Computational Linguistics: 10374–10386. doi:10.18653/v1/2023.findings-emnlp.696.
- ↑ Karpf, David (2022년 12월 21일). “Money Will Kill ChatGPT's Magic”. 《The Atlantic》 (영어). 2023년 1월 13일에 원본 문서에서 보존된 문서. 2022년 12월 31일에 확인함.
- ↑ Ortiz, Sabrina (2023년 2월 2일). “What is ChatGPT and why does it matter? Here's what you need to know”. 《ZDNET》 (미국 영어). 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 18일에 확인함.
- ↑ Milmo, Dan (2023년 12월 2일). “ChatGPT reaches 100 million users two months after launch”. 《The Guardian》 (영국 영어). ISSN 0261-3077. 2023년 2월 3일에 원본 문서에서 보존된 문서. 2023년 2월 3일에 확인함.
- ↑ Reich, Aaron (2022년 12월 27일). “ChatGPT: What is the new free AI chatbot? – explainer”. 《The Jerusalem Post》. 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Walsh, Toby (2022년 12월 13일). “Everyone's having a field day with ChatGPT – but nobody knows how it actually works”. 《The Conversation》 (영어). 2022년 12월 30일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ “New AI classifier for indicating AI-written text”. 《OpenAI》 (영어). 2023년 1월 31일. 2023년 2월 6일에 원본 문서에서 보존된 문서. 2023년 2월 5일에 확인함.
- ↑ Bogost, Ian (2023년 2월 2일). “ChatGPT Is About to Dump More Work on Everyone”. 《The Atlantic》 (영어). 2023년 2월 5일에 원본 문서에서 보존된 문서. 2023년 2월 5일에 확인함.
- ↑ “Introducing ChatGPT Plus”. 《OpenAI》 (영어). 2023년 2월 1일. 2023년 2월 3일에 원본 문서에서 보존된 문서. 2023년 2월 2일에 확인함.
- ↑ “Introducing ChatGPT Plus”. 《OpenAI》 (미국 영어). 2023년 2월 1일. 2023년 3월 23일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ “GPT-4”. 《openai.com》. 2023년 3월 14일. 2023년 3월 14일에 원본 문서에서 보존된 문서. 2023년 3월 14일에 확인함.
- ↑ Popli, Nik (2023년 3월 15일). “These New Projects Show Just How Much More Powerful GPT-4 Is”. 《Time》 (영어). 2023년 3월 19일에 원본 문서에서 보존된 문서. 2023년 3월 19일에 확인함.
- ↑ Wiggers, Kyle (2023년 3월 23일). “OpenAI connects ChatGPT to the internet”.
- ↑ “Introducing the ChatGPT app for iOS”. 《OpenAI》. 2023년 5월 18일. 2023년 5월 25일에 확인함.
- ↑ Torres, Jennifer (2023년 3월 3일). “Developers Can Now Access OpenAI's ChatGPT and Whisper APIs”. 《CMSWire.com》 (영어). 2023년 3월 6일에 원본 문서에서 보존된 문서. 2023년 3월 8일에 확인함.
- ↑ Shanklin, Will (2023년 3월 1일). “OpenAI will let developers build ChatGPT into their apps”. 《Engadget》 (미국 영어). 2023년 3월 7일에 원본 문서에서 보존된 문서. 2023년 3월 8일에 확인함.
- ↑ Swant, Marty (2023년 3월 3일). “With developer APIs for ChatGPT and Whisper, OpenAI is opening the floodgates with a familiar playbook”. 《Digiday》 (미국 영어). 2023년 3월 7일에 원본 문서에서 보존된 문서. 2023년 3월 8일에 확인함.
- ↑ Heath, Alex (2023년 2월 27일). “Snapchat is releasing its own AI chatbot powered by ChatGPT”. 《The Verge》. 2023년 2월 28일에 원본 문서에서 보존된 문서. 2023년 2월 28일에 확인함.
- ↑ “ChatGPT bug leaked users' conversation histories”. BBC News. 2023년 3월 22일. 2023년 3월 23일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ Kan, Michael (2023년 3월 22일). “OpenAI Confirms Leak of ChatGPT Conversation Histories”. 《PCMag》. 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ “ChatGPT owner OpenAI fixes bug that exposed users' chat histories”. 《Al Jazeera》. 2023년 3월 23일. 2023년 3월 24일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ Metz, Rachel (2023년 3월 21일). “OpenAI Shut Down ChatGPT to Fix Bug Exposing User Chat Titles”. 《Bloomberg News》. 2023년 3월 21일에 원본 문서에서 보존된 문서. 2023년 3월 23일에 확인함.
- ↑ “March 20 ChatGPT outage: Here's what happened”. 《openai.com》 (미국 영어). 2023년 3월 28일에 원본 문서에서 보존된 문서. 2023년 3월 28일에 확인함.
- ↑ “OpenAI: Sorry, ChatGPT Bug Leaked Payment Info to Other Users”. 《PCMAG》 (영어). 2023년 3월 28일에 원본 문서에서 보존된 문서. 2023년 3월 28일에 확인함.
- ↑ Magnússon, Pétur (2023년 3월 15일). “Icelandic becomes ChatGPT's second language”. 《ruv.is》 (영어). 2023년 3월 31일에 원본 문서에서 보존된 문서. 2023년 3월 31일에 확인함.
- ↑ “Google Translate vs. ChatGPT: Which One Is the Best Language Translator?”. 《PCMAG》 (영어). 2023년 6월 10일에 확인함.
- ↑ Kovanovic, Vitomir (2022년 12월 14일). “The dawn of AI has come, and its implications for education couldn't be more significant”. 《The Conversation》 (영어). 2023년 1월 16일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Wiggers, Kyle (2022년 12월 10일). “OpenAI's attempts to watermark AI text hit limits”. 《TechCrunch》. 2023년 1월 17일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Edwards, Benj (2023년 2월 28일). “Robots let ChatGPT touch the real world thanks to Microsoft”. 《Ars Technica》 (미국 영어). 2023년 3월 26일에 원본 문서에서 보존된 문서. 2023년 3월 30일에 확인함.
- ↑ “ChatGPT for Robotics”. 《Microsoft Research》 (미국 영어). 2023년 2월 20일. 2023년 2월 24일에 원본 문서에서 보존된 문서. 2023년 3월 8일에 확인함.
- ↑ Belfield, Haydn (2023년 3월 25일). “If your AI model is going to sell, it has to be safe”. 《Vox》 (영어). 2023년 3월 28일에 원본 문서에서 보존된 문서. 2023년 3월 30일에 확인함.
- ↑ Caballero, Ethan; Gupta, Kshitij; Rish, Irina; Krueger, David (2022). "Broken Neural Scaling Laws". International Conference on Learning Representations (ICLR), 2023.
- ↑ Alex Hern; Johana Bhuiyan (2023년 3월 14일). “OpenAI says new model GPT-4 is more creative and less likely to invent facts”. 《The Guardian》. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2023년 3월 15일에 확인함.
- ↑ Vincent, James (2023년 3월 15일). “OpenAI co-founder on company's past approach to openly sharing research: "We were wrong"”. 《The Verge》 (미국 영어). 2023년 3월 17일에 원본 문서에서 보존된 문서. 2023년 3월 18일에 확인함.
- ↑ Edwards, Benj (2023년 3월 14일). “OpenAI's GPT-4 exhibits "human-level performance" on professional benchmarks”. 《Ars Technica》 (미국 영어). 2023년 3월 14일에 원본 문서에서 보존된 문서. 2023년 3월 28일에 확인함.
- ↑ Lardinois, Frederic (2023년 3월 14일). “Microsoft's new Bing was using GPT-4 all along”. 《techcrunch.com》. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2023년 3월 14일에 확인함.
- ↑ “Reinventing search with a new AI-powered Microsoft Bing and Edge, your copilot for the web”. 《The Official Microsoft Blog》. 2023년 2월 7일. 2023년 2월 16일에 확인함.
- ↑ 《Bing Conversational Experiences and Image Creator Terms》, 2023년 2월 1일, 2023년 2월 17일에 확인함
- ↑ Sue, Peggy (2023년 3월 25일). “ChatGPT와 표절: 학계에서 AI의 도전 과제 탐색하기”. 2023년 3월 25일에 확인함.
- ↑ Heaven, Will Douglas. “The inside story of how ChatGPT was built from the people who made it”. 《MIT Technology Review》 (영어). 2023년 3월 6일에 원본 문서에서 보존된 문서. 2023년 3월 6일에 확인함.
- ↑ Simons, John (2023년 2월 5일). “The Creator of ChatGPT Thinks AI Should Be Regulated”. 《Time》 (영어). 2023년 3월 8일에 원본 문서에서 보존된 문서. 2023년 3월 21일에 확인함.
- ↑ Cowen, Tyler (2023년 5월 23일). “ChatGPT Is Also an Impressive Feat of Marketing” (영어). bloomberg.com. 2023년 5월 24일에 확인함.
- ↑ Roose, Kevin (2022년 12월 5일). “The Brilliance and Weirdness of ChatGPT”. 《The New York Times》 (미국 영어). 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 26일에 확인함.
Like those tools, ChatGPT – which stands for "generative pre-trained transformer" – landed with a splash.
- ↑ Lock, Samantha (2022년 12월 5일). “What is AI chatbot phenomenon ChatGPT and could it replace humans?”. 《The Guardian》. 2023년 1월 16일에 원본 문서에서 보존된 문서. 2022년 12월 5일에 확인함.
- ↑ Hern, Alex (2022년 12월 4일). “AI bot ChatGPT stuns academics with essay-writing skills and usability”. 《The Guardian》. 2023년 1월 17일에 원본 문서에서 보존된 문서. 2022년 12월 5일에 확인함.
- ↑ Kantrowitz, Alex (2022년 12월 2일). “Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"”. 《Slate》. 2023년 1월 17일에 원본 문서에서 보존된 문서. 2022년 12월 5일에 확인함.
- ↑ Thompson, Derek (2022년 12월 8일). “Breakthroughs of the Year”. 《The Atlantic》. 2023년 1월 15일에 원본 문서에서 보존된 문서. 2022년 12월 18일에 확인함.
- ↑ Piper, Kelsey (2022년 12월 15일). “ChatGPT has given everyone a glimpse at AI's astounding progress”. 《Vox》 (영어). 2023년 1월 19일에 원본 문서에서 보존된 문서. 2022년 12월 18일에 확인함.
- ↑ Scharth, Marcel (2022년 12월 5일). “The ChatGPT chatbot is blowing people away with its writing skills. An expert explains why it's so impressive”. 《The Conversation》 (영어). 2023년 1월 19일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Piper, Kelsey (2022년 12월 15일). “ChatGPT has given everyone a glimpse at AI's astounding progress”. 《Vox》 (영어). 2023년 1월 19일에 원본 문서에서 보존된 문서. 2022년 12월 18일에 확인함.
- ↑ K, Siddharth (2022년 12월 5일). Shumaker, Lisa, 편집. “Explainer: ChatGPT – what is OpenAI's chatbot and what is it used for?”. 《Reuters》 (영어). 2023년 1월 16일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Kay, Grace (2022년 12월 11일). “Elon Musk founded – and has since criticized – the company behind the buzzy new AI chatbot ChatGPT. Here's everything we know about OpenAI.”. 《Business Insider》. 2023년 1월 12일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Grant, Nico; Metz, Cade (2022년 12월 21일). “A New Chat Bot Is a 'Code Red' for Google's Search Business”. 《The New York Times》. 2023년 1월 18일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ Elias, Jennifer (2023년 1월 31일). “Google is asking employees to test potential ChatGPT competitors, including a chatbot called 'Apprentice Bard'”. 《CNBC》 (영어). 2023년 2월 2일에 원본 문서에서 보존된 문서. 2023년 2월 2일에 확인함.
- ↑ Elias, Jennifer (February 2023). “Google asks employees to rewrite Bard's bad responses, says the A.I. 'learns best by example'”. 《CNBC》 (영어). 2023년 2월 16일에 원본 문서에서 보존된 문서. 2023년 2월 16일에 확인함.
- ↑ Hurst, Luke (2023년 3월 30일). “'Profound risk to humanity': Tech leaders call for 'pause' on advanced AI development”. 《Euronews》. 2023년 4월 1일에 원본 문서에서 보존된 문서. 2023년 4월 1일에 확인함.
- ↑ Roose, Kevin (2023년 5월 30일). “A.I. Poses 'Risk of Extinction,' Industry Leaders Warn”. 《The New York Times》 (미국 영어). ISSN 0362-4331. 2023년 5월 30일에 확인함.
- ↑ Vincent, James (2022년 12월 5일). “AI-generated answers temporarily banned on coding Q&A site Stack Overflow”. 《The Verge》 (미국 영어). 2023년 1월 17일에 원본 문서에서 보존된 문서. 2022년 12월 5일에 확인함.
- ↑ Vincent, James (2023년 1월 5일). “Top AI conference bans use of ChatGPT and AI language tools to write academic papers”. 《The Verge》. 2023년 1월 17일에 원본 문서에서 보존된 문서. 2023년 1월 6일에 확인함.
- ↑ “The Guardian view on ChatGPT: an eerily good human impersonator”. 《The Guardian》 (영어). 2022년 12월 8일. 2023년 1월 16일에 원본 문서에서 보존된 문서. 2022년 12월 18일에 확인함.
- ↑ Cain, Sian (2023년 1월 16일). “'This song sucks': Nick Cave responds to ChatGPT song written in the style of Nick Cave”. 《The Guardian》 (영어). 2023년 1월 18일에 원본 문서에서 보존된 문서. 2023년 1월 17일에 확인함.
- ↑ Cave, Nick (2023년 1월 16일). “I asked Chat GPT to write a song in the style of Nick Cave, and this is what it produced. What do you think?”. 《The Red Hand Files》. Issue #218 (오스트레일리아 영어). 2023년 1월 20일에 원본 문서에서 보존된 문서. 2023년 1월 20일에 확인함.
- ↑ Cain, Sian (2023년 1월 16일). “'This song sucks': Nick Cave responds to ChatGPT song written in the style of Nick Cave”. 《The Guardian》 (영어). 2023년 1월 18일에 원본 문서에서 보존된 문서. 2023년 1월 17일에 확인함.
- ↑ Sparrow, Jeff (2023년 1월 20일). “Are AI-generated songs a 'grotesque mockery' of humanity or simply an opportunity to make a new kind of music?”. 《The Guardian》 (영어). 2023년 2월 3일에 원본 문서에서 보존된 문서. 2023년 1월 20일에 확인함.
- ↑ Karp, Paul (2023년 2월 6일). “MP tells Australia's parliament AI could be used for 'mass destruction' in speech part-written by ChatGPT”. 《The Guardian》 (영국 영어). ISSN 0261-3077. 2023년 2월 6일에 원본 문서에서 보존된 문서. 2023년 2월 6일에 확인함.
- ↑ Chiang, Ted (2023년 2월 9일). “ChatGPT Is a Blurry JPEG of the Web”. 《The New Yorker》. 2023년 2월 17일에 원본 문서에서 보존된 문서. 2023년 2월 17일에 확인함.
- ↑ “港大禁用ChatGPT等AI工具,为全港大学首例”. 《The Paper》 (China News Service). 2023년 2월 18일. 2023년 3월 6일에 원본 문서에서 보존된 문서. 2023년 2월 19일에 확인함.
- ↑ Yau, Cannix; Chan, Kahon (2023년 2월 17일). “University of Hong Kong temporarily bans students from using ChatGPT”. 《South China Morning Post》 (영어). 2023년 2월 19일에 원본 문서에서 보존된 문서. 2023년 2월 19일에 확인함.
- ↑ Chow, Andrew; Perrigo, Billy (2023년 2월 16일). “The AI Arms Race Is On. Start Worrying”. 《Time》 (영어). 2023년 2월 19일에 원본 문서에서 보존된 문서. 2023년 3월 21일에 확인함.
- ↑ “Why ChatGPT can be dangerous for every internet user”. 《The Times of India》 (영어). 2022년 12월 21일. 2023년 1월 5일에 원본 문서에서 보존된 문서. 2023년 1월 5일에 확인함.
- ↑ “Chatting Our Way Into Creating a Polymorphic Malware”. 《www.cyberark.com》 (영어). 2023년 5월 12일에 확인함.
- ↑ Mascellino, Alessandro (2023년 1월 18일). “ChatGPT Creates Polymorphic Malware”. 《Infosecurity Magazine》. 2023년 5월 12일에 확인함.
- ↑ Bushard, Brian (2023년 1월 10일). “Fake Scientific Abstracts Written By ChatGPT Fooled Scientists, Study Finds”. 《Forbes》 (영어). 2023년 2월 3일에 원본 문서에서 보존된 문서. 2023년 1월 30일에 확인함.
- ↑ Stokel-Walker, Chris (2023년 1월 18일). “ChatGPT listed as author on research papers: many scientists disapprove”. 《Nature》 (영어) 613 (7945): 620–621. Bibcode:2023Natur.613..620S. doi:10.1038/d41586-023-00107-z. PMID 36653617. S2CID 255969365. 2023년 1월 30일에 원본 문서에서 보존된 문서. 2023년 1월 30일에 확인함.
- ↑ Herman, Daniel (2022년 12월 9일). “The End of High-School English”. 《The Atlantic》. 2023년 1월 20일에 원본 문서에서 보존된 문서. 2022년 12월 12일에 확인함.
- ↑ Stokel-Walker, Chris (2022년 12월 9일). “AI bot ChatGPT writes smart essays – should professors worry?”. 《Nature》. doi:10.1038/d41586-022-04397-7. PMID 36494443. S2CID 254530623. 2023년 1월 17일에 원본 문서에서 보존된 문서. 2022년 12월 19일에 확인함.
- ↑ Bowman, Emma (2022년 12월 19일). “A new AI chatbot might do your homework for you. But it's still not an A+ student”. 《NPR》. 2023년 1월 20일에 원본 문서에서 보존된 문서. 2022년 12월 19일에 확인함.
- ↑ Stern, Joanna (2022년 12월 21일). “ChatGPT Wrote My AP English Essay – and I Passed”. 《The Wall Street Journal》. 2023년 2월 3일에 원본 문서에서 보존된 문서. 2022년 12월 21일에 확인함.
- ↑ Allen, Mike (2022년 12월 26일). “Professor warns about chatbot cheating: "Expect a flood"”. 《Axios》 (영어). 2023년 2월 3일에 원본 문서에서 보존된 문서. 2022년 12월 30일에 확인함.
- ↑ “New York City Department of Education Bans ChatGPT”. 《GovTech》 (영어). 2023년 1월 10일. 2023년 2월 16일에 원본 문서에서 보존된 문서. 2023년 2월 16일에 확인함.
- ↑ Cole, Samantha (2023년 1월 4일). “NYC Bans Students and Teachers from Using ChatGPT”. 《www.vice.com》 (영어). 2023년 1월 5일에 원본 문서에서 보존된 문서. 2023년 1월 5일에 확인함.
- ↑ Ropek, Lucas (2023년 1월 4일). “New York City Schools Ban ChatGPT to Head Off a Cheating Epidemic”. 《Gizmodo》 (영어). 2023년 1월 6일에 원본 문서에서 보존된 문서. 2023년 1월 6일에 확인함.
- ↑ Kelly, Samantha Murphy (2023년 1월 26일). “ChatGPT passes exams from law and business schools | CNN Business”. 《CNN》. 2023년 2월 2일에 원본 문서에서 보존된 문서. 2023년 2월 3일에 확인함.
- ↑ Roivainen, Eka (2023년 3월 28일). “I Gave ChatGPT an IQ Test. Here's What I Discovered”. 《Scientific American》. 2023년 4월 3일에 원본 문서에서 보존된 문서. 2023년 4월 3일에 확인함.
- ↑ Day, Terence (2023년 4월 12일). “A Preliminary Investigation of Fake Peer-Reviewed Citations and References Generated by ChatGPT”. 《The Professional Geographer》 (영어): 1–4. doi:10.1080/00330124.2023.2190373. ISSN 0033-0124. S2CID 258115209. 2023년 5월 6일에 확인함.
- ↑ The Lancet Digital Health (2023년 3월 3일). “ChatGPT: friend or foe?”. 《The Lancet Digital Health》 (영어) 5 (3): e102. doi:10.1016/S2589-7500(23)00023-7. PMID 36754723. S2CID 256659547. 2023년 2월 16일에 원본 문서에서 보존된 문서. 2023년 2월 28일에 확인함.
- ↑ DePeau-Wilson, Michael (2023년 1월 19일). “AI Passes U.S. Medical Licensing Exam”. 《MedPage Today》. 2023년 4월 9일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함.
- ↑ Kung, Tiffany H.; Cheatham, Morgan; Medenilla, Arielle; Sillos, Czarina; Leon, Lorie De; Elepaño, Camille; Madriaga, Maria; Aggabao, Rimel; Diaz-Candido, Giezel; Maningo, James; Tseng, Victor (2023년 2월 9일). “Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models”. 《PLOS Digital Health》 (영어) 2 (2): e0000198. doi:10.1371/journal.pdig.0000198. ISSN 2767-3170. PMC 9931230. PMID 36812645.
- ↑ “Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam”. 《Science Media Centre》. 2023년 2월 9일. 2023년 4월 24일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함.
- ↑ Gilson, Aidan; Safranek, Conrad W.; Huang, Thomas; Socrates, Vimig; Chi, Ling; Taylor, Richard Andrew; Chartash, David (2023년 2월 8일). “How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment”. 《JMIR Medical Education》 (영어) 9 (1): e45312. doi:10.2196/45312. PMC 9947764. PMID 36753318. 2023년 3월 29일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함.
- ↑ Abdel-Messih, Mary Sabry; Boulos, Maged N. Kamel (2023년 3월 8일). “ChatGPT in Clinical Toxicology”. 《JMIR Medical Education》 (영어) 9 (1): e46876. doi:10.2196/46876. PMC 10034604
|pmc=
값 확인 필요 (도움말). PMID 36867743. 2023년 3월 30일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함. - ↑ Haver, Hana L; Ambinder, Emily B; Bahl, Manisha; Oluyemi, Eniola T; Jeudy, Jean; Yi, Paul H (2023년 4월 4일). “Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT”. 《Radiology》 (영어) 307 (4): 230424. doi:10.1148/radiol.230424. ISSN 0033-8419. PMID 37014239. S2CID 257923990.
- ↑ Kotz, Deborah (2023년 4월 4일). “UM School of Medicine Study Finds ChatGPT Helpful for Breast Cancer Screening Advice, With Certain Caveats”. 《University of Maryland School of Medicine》. 2023년 5월 5일에 확인함.
- ↑ Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M.; Longhurst, Christopher A.; Hogarth, Michael; Smith, Davey M. (2023년 4월 28일). “Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum”. 《JAMA Internal Medicine》 (영어). doi:10.1001/jamainternmed.2023.1838. ISSN 2168-6106. PMC 10148230
|pmc=
값 확인 필요 (도움말). PMID 37115527. 2023년 4월 30일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함. - ↑ Fox, Andrea (2023년 5월 4일). “Does ChatGPT really outshine doctors? Or just on social media?”. 《Healthcare IT News》 (HIMSS Media). 2023년 5월 5일에 확인함.
- ↑ “The doctor is out, but it's OK. ChatGPT can answer your questions”. 《Hub》 (Johns Hopkins University). 2023년 4월 28일.
- ↑ Ono, Mika (2023년 4월 28일). “Study Finds ChatGPT Outperforms Physicians in High-Quality, Empathetic Answers to Patient Questions”. 《UC San Diego Today》. 2023년 4월 28일에 원본 문서에서 보존된 문서. 2023년 4월 28일에 확인함.
- ↑ “ChatGPT Beats Doctors in Compassion and Quality of Advice to Patients”. 《Neuroscience News》. 2023년 4월 28일. 2023년 5월 3일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함.
- ↑ Howard, Alex; Hope, William; Gerada, Alessandro (April 2023). “ChatGPT and antimicrobial advice: the end of the consulting infection doctor?”. 《The Lancet Infectious Diseases》 23 (4): 405–406. doi:10.1016/s1473-3099(23)00113-5. ISSN 1473-3099. PMID 36822213. S2CID 257072872. 2023년 3월 25일에 원본 문서에서 보존된 문서. 2023년 5월 2일에 확인함.
- ↑ “Is There a Role for ChatGPT in Healthcare?”. 《Physician's Weekly》. 2023년 4월 27일. 2023년 5월 5일에 확인함.
- ↑ Drake, Kimberly (2023년 4월 6일). “Rely on a Doctor, Not ChatGPT, for Medical Advice”. 《HealthNews》. 2023년 5월 5일에 확인함.
- ↑ Hughes, Stephen (2023년 4월 27일). “How good is ChatGPT at diagnosing disease? A doctor puts it through its paces”. 《The Conversation》. 2023년 5월 5일에 확인함.
- ↑ Fox, Matthew (2023년 1월 31일). “C3ai has soared 86% year-to-date as investor frenzy for artificial intelligence builds amid ChatGPT success”. 《Markets Insider (Business Insider)》 (미국 영어). 2023년 2월 28일에 원본 문서에서 보존된 문서. 2023년 4월 14일에 확인함.
- ↑ Diaz, Alicia; Smith, Gerry (2023년 1월 26일). “BuzzFeed Shares Surge 120% on Plans to Embrace OpenAI”. 《Bloomberg.com》 (영어). 2023년 5월 22일에 확인함.
- ↑ Saggu, Aman; Ante, Lennart (2023년 5월 8일). “The influence of ChatGPT on artificial intelligence-related crypto assets: Evidence from a synthetic control analysis”. 《Finance Research Letters》 (영어): 103993. arXiv:2305.12739. doi:10.1016/j.frl.2023.103993. ISSN 1544-6123. S2CID 258573881.
- ↑ Saggu, Aman; Ante, Lennart (2023년 5월 8일). “The influence of ChatGPT on artificial intelligence-related crypto assets: Evidence from a synthetic control analysis”. 《Finance Research Letters》 (영어): 103993. arXiv:2305.12739. doi:10.1016/j.frl.2023.103993. ISSN 1544-6123. S2CID 258573881.
- ↑ Hajric, Vildana; Shen, Muyao (2023년 2월 9일). “ChatGPT Mania Spurs Crypto Fans' Stampede to 'Faddish' AI Tokens”. 《Bloomberg.com》 (영어). 2023년 4월 14일에 확인함.
- ↑ Cooban, Anna (2023년 5월 5일). “ChatGPT can pick stocks better than your fund manager”. 《CNN》. 2023년 5월 5일에 확인함.
- ↑ Zuckerman, Gregory (2023년 4월 12일). “AI Can Write a Song, but It Can't Beat the Market”. 《The Wall Street Journal》 (News Corp). 2023년 5월 30일에 확인함.
- ↑ “Pakistani judge uses ChatGPT to make court decision”. 《Gulf News》. 2023년 4월 13일. 2023년 4월 20일에 원본 문서에서 보존된 문서. 2023년 4월 20일에 확인함.
- ↑ “AI revolution is here': Pakistani court takes help from ChatGPT to grant bail in rape case”. 《Pakistan Observer》. 2023년 4월 11일. 2023년 4월 20일에 원본 문서에서 보존된 문서. 2023년 4월 20일에 확인함.
- ↑ Goswami, Rohan (2023년 5월 30일). “ChatGPT cited 'bogus' cases for a New York federal court filing. The attorneys involved may face sanctions.”. CNBC. 2023년 5월 30일에 확인함.
- ↑ Nolan, Beatrice. “More than 200 books in Amazon's bookstore have ChatGPT listed as an author or coauthor”. 《Business Insider》. 2023년 3월 9일에 원본 문서에서 보존된 문서. 2023년 3월 9일에 확인함.
- ↑ Bensinger, Greg (2023년 2월 21일). “ChatGPT launches boom in AI-written e-books on Amazon”. 《Reuters》 (영어). 2023년 3월 9일에 원본 문서에서 보존된 문서. 2023년 3월 9일에 확인함.
- ↑ “ChatGPT sul Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale” [ChatGPT on Il Foglio: for 30 days, brief texts written by the AI on our newspaper]. 《Il Foglio》 (이탈리아어). 2023년 3월 7일. 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 22일에 확인함.
- ↑ Moretti, Marco (2023년 3월 8일). “Articoli artificiali? No” [Artificial articles? No]. 《Il Foglio》 (이탈리아어). 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 22일에 확인함.
- ↑ A.D.A. (2023년 3월 9일). “Più umani, grazie” [Be more human, thanks]. 《Il Foglio》 (이탈리아어). 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 22일에 확인함.
- ↑ “Le colpe farlocche dell'"invasione"” [The fake faults of the "invasion"]. 《Il Foglio》 (이탈리아어). 2023년 3월 14일. 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 22일에 확인함.
- ↑ “Sfida per Siri e Alexa” [A challenge for Siri and Alexa]. 《Il Foglio》 (이탈리아어). 2023년 3월 17일. 2023년 3월 22일에 원본 문서에서 보존된 문서. 2023년 3월 22일에 확인함.
- ↑ Flook, Ray (2023년 3월 6일). “South Park Season 26 Promo: Stan's Love Life Getting ChatGPT Upgrade”. 《Bleeding Cool》. 2023년 3월 6일에 원본 문서에서 보존된 문서. 2023년 3월 8일에 확인함.
- ↑ Edwards, Benj (2023년 6월 12일). “AI-powered church service in Germany draws a large crowd”. 《Ars Technica》 (미국 영어). 2023년 6월 13일에 확인함.
- ↑ “Hundreds of Protestants attended a sermon in Nuremberg given by ChatGPT, which told them not to fear death”. 《Business Insider》. 2023년 6월 13일에 확인함.
- ↑ “Hundreds attend AI church service in Germany”. 《TheJournal.ie》 (영어). 2023년 6월 10일. 2023년 6월 13일에 확인함.
- ↑ Chow, Andrew; Perrigo, Billy (2023년 2월 17일). “The AI Arms Race Is Changing Everything”. TIME. 2023년 7월 27일에 확인함.