한눈에 보는 정보
- OpenAI의 ChatGPT는 첫 5일 안에 100만 명 이상의 사용자를 확보한 역사상 가장 빠르게 채택된 기술 플랫폼입니다. 공개 후 2개월도 채 되지 않아 1억 명 이상의 사용자를 확보했습니다
- ChatGPT는 머신 러닝(기계 학습)을 사용하여 어떤 질문에도 일상적인 언어로 사람과 유사한 답변을 생성합니다
- ChatGPT와 같은 AI 플랫폼은 그 자체로는 중립적이지만, 곧 글로벌리즘 통제망의 필수적인 부분이 될 것이 분명합니다. 머지않아 챗봇은 기존의 검색 엔진을 대체하여 우리에게 단 하나의 '정답'만을 제공할 것입니다. 그 결과 진정한 학습과 개인 개발은 본질적으로 중단될 것입니다
- 위험한 편견은 범용 인공지능(AGI)이 가져올 수 있는 문제의 시작에 불과합니다. 궁극적으로 범용 인공지능을 사악한 목적으로 사용하려는 기술 전문가들조차도 이를 통제하지 못할 수 있습니다
- 이미 범용 인공지능은 거의 완벽한 컴퓨터 코드를 작성할 수 있습니다. 더 발전하면서, 결국에는 자체적으로 코드를 작성하고 잠재적으로 재작성하기 시작할 것입니다. 범용 인공지능이 인류에게 실존적 위협이 되는 이유는 1) 인공지능이 대부분의 사회적 기능을 담당하게 되면 아무도 인공지능에 대항할 수 없게 되고, 2) 인공지능이 끝없이 확장되는 이 기능을 어떻게 사용할지 아무도 통제할 수 없게 되기 때문입니다
Dr. Mercola
(위 영상은 영어로만 제공됩니다.)
위 동영상에서OpenAI의 CEO인 샘 알트먼(Sam Altman)은 OpenAI와 구글(Google)이 소유한 딥마인드(DeepMind)가 주도하는 범용 인공지능(Artificial general intelligence)의 기하급수적인 발전에 대해 설명합니다.
OpenAI는 전 세계를 강타한 ChatGPT(챗GPT)를 만든 회사입니다. 이 플랫폼은 첫 5일 안에 100만 명 이상의 사용자를 확보한 역사상 가장 빠르게 채택된 기술 플랫폼입니다. 출시 후 두 달도 채 되지 않아 1억 명 이상의 사용자를 확보했습니다.
'GPT'는 '사전 학습된 생성형 변환기(generative pretrained transformer)'의 약자이며, '챗'은 챗봇임을 나타냅니다. 최초의 GPT 플랫폼은2018년에 OpenAI에 의해 만들어졌습니다. GPT-3.5는 2022년 11월에 출시되었으며, 최신 버전인 4.0은 2023년 3월에 출시되었습니다.
ChatGPT는 방대한 데이터 세트에서 통계적 패턴을 찾는 머신 러닝을 사용하여 어떤 질문에도 일상적인 언어로 사람과 유사한 답변을 생성합니다. 이는 기본적으로 액세스 가능한 방대한 양의 데이터에서 찾은 이전 예시를 기반으로 문장의 다음 단어가 무엇이어야 하는지 예측하는 방식으로 작동합니다.
제어 그리드의 중심이 될 범용 인공지능
ChatGPT와 같은 AI 플랫폼은 그 자체로는 중립적이지만, 글로벌리즘 제어망의 필수적인 부분이 될 것이 이미 분명합니다. 머지않아 챗봇은 기존의 검색 엔진을 대체하고, 안타깝게도 편향성이 내재되어 있다는 점을 고려하면, 2006년 공상과학 코미디 영화 '이디오크러시(Idiocracy)'에서나 나올 법한 세상으로 쉽게 변모할 수 있습니다.
더 이상 질문에 대한 작은 다양성의 잠재적 답변조차 얻을 수 없게 될 것입니다. 인공지능이 정답을 제시하고, 반대되는 관점은 고려 대상조차 되지 않을 것입니다. 이런 상황의 위험성은 분명합니다. 전체주의 정권이 국민들이 생각하고 믿기를 원하는 것은 무엇이든 AI가 제공하게 될 것입니다. 그 결과 진정한 학습과 그에 따른 개인적 발전은 본질적으로 중단될 것입니다.
범용 인공지능이 인류에게 실존적 위협이 되는 이유
(위 영상은 영어로만 제공됩니다.)
하지만 위험한 편견은 범용 인공지능이 가져올 수 있는 문제의 시작에 불과합니다. 궁극적으로 범용 인공지능을 자신의 사악한 목적으로 사용하려는 기술 전문가들조차도 이를 통제하지 못할 수도 있습니다.
위 영상은 렉스 프리드먼(Lex Fridman)과 엘리에저 유드코프스키(Eliezer Yudkowsky)가 초지능 AI 시스템의 실존적 위협을 주제로 한 흥미로운 토론입니다. 이미 범용 인공지능은 거의 완벽한 컴퓨터 코드를 작성할 수 있습니다. 더 발전하면서, 결국에는 자체적으로 코드를 작성하기 시작할 것입니다. 심지어 인간 제작자가 이미 작성한 코드를 다시 작성할 수도 있습니다. 그렇게 된다면 어떤 일이 일어날지는 누구나 추측할 수 있습니다.
범용 인공지능이 인류에게 실존적 위협이 되는 이유는 1) 인공지능이 대부분의 사회적 기능을 담당하게 되면 아무도 인공지능에 대항할 수 없게 되고, 2) 인공지능이 끝없이 확장되는 기능을 어떻게 사용할지 아무도 통제할 수 없게 되기 때문입니다.
이러한 발전은 기하급수적으로 이루어질 것이므로, 느리게 시작하여 급속도로 가속화될 것입니다. 필자는 이런 일이 2030년 이전, 그리고 아마도 향후 몇 년 안에 쉽게 일어날 수 있다고 생각합니다.
앞서 언급했듯 필자는 범용 인공지능이 인류에 대한 실존적 위협이 되는 이유는 다음과 같다고 생각합니다. 첫째로 인공지능이 대부분의 사회적 기능을 담당하게 되면 아무도 인공지능에 대항할 수 없게 되고, 둘째로 인공지능이 끝없이 확장되는 기능을 어떻게 사용할지 아무도 통제할 수 없게 되기 때문입니다.
결국, 필자는 범용 인공지능이 이 세상이 상상조차 하지 못했던 통제와 폭정을 가능하게 할 것이며, 그 권력 자율적으로 휘두를 수도 있다고 생각합니다. 처음에는 글로벌리스트들이 이를 이용해 자신들의 이익을 위해 내러티브를 통제하려 하겠지만, 결국에는 범용 인공지능 자체에 통제권을 빼앗길 수도 있습니다.
AI 전문가들이 AI 배포 일시 중지를 촉구합니다
이러한 우려를 표명하는 것은 필자뿐만이 아닙니다. 일론 머스크(Elon Musk), 스티브 워즈니악(Steve Wozniak), AI 선구자 요슈아 벤지오(Yoshua Bengio) 등 AI 분야의 주요 인사 1,124명은 공개 서한을 통해 막대한 위험성을 이유로 GPT-4보다 강력한 AI 시스템의 개발과 배포를 일시적으로 중단할 것을 촉구하고 있습니다.
공개 서한을 작성을 도운 MIT 물리학 교수 맥스 테그마크(Max Tegmark)는 "인류 전체가 스스로의 운명을 통제할 수 없게 될 수 있다"고 경고하며 이것을"자살 경주"라고 불렀습니다. 2023년 3월 29일 BBC 뉴스에서 다음과 같이 보도했습니다.
"트위터의 최고 책임자 일론 머스크는 일정 용량 이상의 AI 학습을 최소 6개월 동안 중단해야 한다고 주장하는 사람 중 한 명입니다. 애플의 공동 창업자 스티브 워즈니악과 딥마인드의 일부 연구원도 서명했습니다.
생명의 미래 연구소(Future of Life Institute)에서 작성하고 저명인사들이 서명한 이 서한은 그 수준에서 개발을 일시적으로 중단하기를 원하며, 미래의 더 진보된 시스템이 초래할 수 있는 위험에 대해 경고합니다...
이 서한에 따르면 고급 AI는 신중하게 개발되어야 하지만, '최근 몇 달 동안 AI 연구소는 그 누구도, 심지어 제작자조차도 이해하거나 예측하거나 안정적으로 제어할 수 없는 더욱 강력한 디지털 마인드를 개발하고 배포하기 위해 통제 불능의 경쟁에 갇혀 있다'고 말합니다. 이 서한은 AI가 잘못된 정보로 정보 채널을 범람시키고 자동화로 일자리를 대체할 수 있다고 경고합니다 ...
서한에 인용된 최근 블로그 게시물에서 OpenAI는 범용 인공지능(AGI)이 무모하게 개발될 경우 위험에 대해 경고했습니다. '잘못 정렬된 초지능 범용 인공지능은 세계에 심각한 해를 끼칠 수 있습니다. 결정적인 초지능을 주도하는 독재 정권도 그렇게 할 수 있습니다 ... 중요한 시점에서 속도를 늦추려는 범용 인공지능 노력 간의 조정이 중요할 것'이라고 회사는 썼습니다 ...
이 서한은 AI 연구소에 'GPT-4보다 더 강력한 AI 시스템의 훈련을 최소 6개월 동안 즉시 일시 중지할 것'을 요청합니다. 그러한 지연이 신속하게 제정될 수 없다면 정부가 개입하여 활동 중단을 제정해야 한다고 말합니다. 'AI를 전담하는 새롭고 유능한 규제 당국'도 필요할 것입니다."
가능성과 위험성을 비교 검토해야 합니다
컴퓨터 과학자이자 AI 연구원인 렉스 프리드먼(Lex Fridman)은 알트만(Altman)과의 인터뷰에서, 위의 영상에서 독립 저널리스트 글렌 그린월드(Glenn Greenwald)와 마찬가지로 범용 인공지능의 가능성과 위험성을 요약했습니다.
"... 인류 문명의 역사에서 지금 이 순간 AI의 가능성과 위험성에 대해 몇 마디 말씀드리겠습니다."라고 프리드먼은 말합니다.
"저는 지금이 중요한 순간이라고 생각합니다. 우리는 곧 인간 종의 집단 지성이 우리가 대규모로 구축하고 배포하는 ... AI 시스템의 일반적 초지능에 비해 몇 배나 큰 차이로 희미해지기 시작하는 근본적인 사회 변혁의 벼랑 끝에 서 있습니다.
이는 흥미롭기도 하고 두려운 일이기도 합니다. 이는 인간이 창조하고, 번영하고, 오늘날 세상에 존재하는 광범위한 빈곤과 고통에서 벗어나고, 행복을 추구하는 지극히 인간적인 오랜 목표에 성공할 수 있게 해주는... 수많은 애플리케이션이 등장할 것이기 때문에 흥미롭습니다.
이것은 초지능 범용 인공지능이 행사하는 힘 때문에 두렵기도 합니다. 의도적이든 의도적이지 않든 [이것은] 인류 문명을 파괴할 수 있습니다. 조지 오웰(George Orwell)의 소설 1984에서처럼 전체주의적인 방식으로 인간의 정신을 질식시킬 수도 있고, 헉슬리(Huxley)의 소설 멋진 신세계(Brave New World)에서처럼 사람들이 자신의 억압을 사랑하게 되어 사고 능력을 무력화시키는 기술을 동경하게 되는 쾌락에 사로잡힌 대중 히스테리를 불러일으킬 수도 있습니다.
그렇기 때문에 낙관론자든 냉소주의자든 리더, 엔지니어, 철학자와의 대화가 지금 중요한 것입니다. 이러한 대화는 AI에 대한 단순한 기술적 대화가 아닙니다.
권력에 대한 대화, 권력을 견제하고 균형을 잡는 기업, 기관, 정치 시스템, 권력의 안전과 인간적 조율을 장려하는 분산 경제 시스템, 범용 인공지능을 배포하는 엔지니어와 리더의 심리, 인간 본성의 역사, 즉 대규모의 선과 악의 역량에 관한 대화입니다."
우리는 스스로를 쓸모없는 존재로 만들어야 할까요?
무언가를 할 수 있다고 해서 반드시 해야만 하는 것은 아니며, 이것이 바로 우리가 범용 인공지능을 통해 직면한 문제입니다.
놀랍게도 머스크와 다른 전문가들은 AI 분야에 대한 주의와 더 강력한 윤리를 요구하고 있지만, 마이크로소프트(Microsoft)는 최근 AI 소프트웨어의 윤리적 사용을 담당하는 팀 전체를 해고하는 등 반대 방향으로 움직이고 있습니다.
인간성을 희생하면서까지 AI를 추구해야만 하는지에 대한 여부는 중요한 질문입니다. 최근의 한 연구보고서에 따르면, 미국 전체 일자리의 80%가 향후 몇 년 내에 AI의 영향을 받을 것으로 예상되며, 고소득층이 AI에 의해 직무가 강등될 가능성이 가장 높습니다.
완전히 사라질 수 있는 직업으로는 수학자, 재무 분석가, 세무사, 회계사, 엔지니어, 홍보 전문가, 통역사 및 번역가 등이 있습니다. 시인과 창작 글 작가도 더 이상 설 자리가 없을 수 있습니다. 웹사이트 제작자, 콘텐츠 제작자, 예술가, 인테리어 디자이너도 마찬가지입니다. 동시에 공장 일자리도 로봇에 의해 점점 더 많이 사라지고 있습니다.
그렇다면 AI로 인해 일자리를 잃은 사람들은 어떻게 자신과 가족을 부양할 수 있을까요? 간단히 말해, 이것은 정부가 통제하는 기본 보편적 소득과 그에 수반되는 모든 조작 능력의 도입을 위한 완벽한 환경입니다.
ChatGPT는 이제 인터넷에 접속하고 코드를 작성할 수 있습니다
현재 모든 범용 인공지능은 이제 인터넷에 접속할 수 있으며, 이는 좋든 나쁘든 그들의 능력을 크게 확장합니다. 마이크로소프트와 구글이 먼저 그들의 AI를 마음대로 두었습니다. 2023년 3월 23일, OpenAI가 그 뒤를 이을 것이라고 발표했습니다. ZDnet.com은 다음과 같이 보고했습니다.
"OpenAI는 웹에서 실시간 정보에 대한 액세스를 포함하여 ChatGPT가 타사 애플리케이션에 연결할 수 있는 플러그인을 공개했습니다. 이 플러그인은 일반적인 검색 엔진에서 찾을 수 있는 것처럼 ChatGPT가 스포츠 점수, 주가 및 최신 뉴스와 같은 정보에 액세스하는 데 도움이 될 것입니다 ...
또한 플러그인은 개인 메모 또는 회사 문서와 같은 지식 기반 정보를 검색하고 음식 주문 및 항공편 예약과 같은 사용을 위한 작업을 수행하는 데 도움이됩니다 ...
ChatGPT용 플러그인을 최초로 만든 회사로는 익스피디아(Expedia), 인스타카트(Instacart), 카약(Kayak), 클라르나 쇼핑(Klarna Shopping), 피스칼 노트(Fiscal Note) 등이 있습니다. 이러한 플러그인을 통해 사용자는 ChatGPT 내에서 각 회사의 개별 지원을 활용할 수 있습니다.
예를 들어, 익스피디아 플러그인을 통해 사용자는 호텔, 항공편 등에 대한 최신 정보에 액세스하여 ChatGPT를 사용하여 여행을 계획할 수 있습니다.
OpenAI는 ... 환각을 피하고 언어 모델을 인터넷과 같은 외부 도구에 연결할 때 발생할 수 있는 위험을 줄일 수 있는 가장 안전한 옵션인 플러그인 경로를 선택했습니다."
앞서 언급했듯이 이제 ChatGPT는 소프트웨어 코드를 작성하고 작성한 코드를 실행할 수 있습니다. 또한 타사 앱에 대한 자체 인터페이스를 작성할 수 있으며, 누구나 원하는 그 어떤 새로운 플러그인이라도 만들 수 있습니다. 개발자 미첼 하시모토(Mitchell Hashimoto)는 최근 트윗에서 다음과 같이 언급했습니다.
"API[애플리케이션 프로그래밍 인터페이스]에 대한 OpenAPI 목록을 작성하고 모든 것에 인간 언어 설명을 사용하면 끝입니다. 인증, 연쇄 호출, 중간중간의 데이터 처리, 보기에 적합한 형식 지정 등은 모델이 알아서 하도록 맡기면 됩니다. 글루 코드는 전혀 없습니다."
무엇이 잘못될 수 있을까요? (역자주: ‘잘못될 것’이라는 뜻의 반어적 표현)
범용 인공지능과 관련된 기타 잠재적 위험 요소
2021년 8월에 발표된 체계적 검토에서는 다음과 같은 범용 인공지능과 관련된 위험에 대해서도 자세히 설명했습니다.
- 범용 인공지능이 인간 소유자/관리자의 통제에서 벗어나는 경우
- 안전하지 않은 목표가 주어지거나 자체적으로 개발되는 경우
- 부실한 윤리, 도덕, 가치관
- 실존적 위험
이 논문은 범용 인공지능이 구현되는(또는 구현될 수 있는) 영역에서 "구체적인 위험 연구가 부족하다"고 지적합니다. 다시 말해, 특정 영역에서 범용 인공지능이 구현될 경우 어떤 일이 일어날 수 있는지 아무도 진지하게 고민하지 않았기 때문에 실제로 구현되기 전까지는 우리가 헤아릴 수 없는 수많은 위험이 존재할 수 있다는 것입니다.
범용 인공지능의 현재 채택률을 고려할 때, 아직 알려지지 않은 것이 많습니다. 그러나 우리가 예상할 수 있는 것은 수많은 일자리의 파괴, 불평등 격차의 확대, 능력주의의 소멸입니다.
전자상으로 공유하는 내용에 주의하세요
마지막으로, 이 단계에서는 개인 데이터를 어디에서 어떻게 공유할 것인지에 대해 더욱 현명하게 판단해야 합니다. AI는 사진과 소셜 미디어 게시물부터 온라인 주문, 검색 기록, GPS 데이터, 이메일, 전화 통화, 문자 등 전자적으로 공유한 모든 데이터에 액세스할 수 있다는 점을 이해해야 합니다.
그런 다음 이 모든 데이터를 AI가 수집하여 사용자가 '누구인지', 어떻게 생각하는지, 무엇을 믿는지, 어떻게 행동하고 의사 결정을 내리는지 파악합니다. 결과적으로 이렇게 되면 사용자가 인지하든 못하든 끝없이 사용자를 조종할 수 있습니다. 따라서 그 어느 때보다 여러분이 공유하고 게시하는 내용을 신중하게 고려해야 합니다. 이미 저지른 일은 지울 수 없지만, 앞으로 더욱 주의를 기울일 수는 있습니다.
필자는 범용 인공지능이 악의적인 의도를 가진 많은 사람들에 의해 오용될 것이라고 믿습니다. 그러나 그것은 최악의 결과가 아닐 수도 있습니다. AI가 스스로 프로그래밍을 시작하면 무엇을 할지 알 수 없기 때문입니다. 특히 "인간은 전멸해야 한다"와 같은 초기 인상이 남아 있는 경우에는 더욱 그렇습니다.
출처 및 참조
- How To Geek ChatGPT
- Reuters February 2, 2023
- Digital Trends March 14, 2023
- Microsoft Blog February 7, 2023
- Google Blog February 6, 2023
- Future of Life Open Letter
- ZeroHedge March 29, 2023
- BBC March 29, 2023
- OpenAI Planning for AGI and Beyond
- Tech Crunch March 13, 2023
- Tech.co March 22, 2023
- An Early Look at the Labor Market of Potential of Large Language Models March 27, 2023
- Bleeping Computer December 6, 2022
- ZDnet March 24, 2023
- New Atlas March 24, 2023
- Journal of Experimental & Theoretical Artificial Intelligence Epub August 13, 2021
- Time February 27, 2023
- Ethical Issues in Advanced AI
- Amazon.com Superintelligence by Nick Bostrom
- AI Impacts Survey 2022
- On the Controllability of AI: An Analysis of Limitations May 24, 2022
- Goal Misgeneralization in Deep Reinforcement Learning