Google의 LaMDA AI는 무엇이며 Google 엔지니어는 왜 그것이 지각이 있다고 믿습니까?
게시 됨: 2022-06-29Google의 수석 엔지니어는 회사의 LaMDA AI가 지각력을 갖게 되었다고 주장했습니다. 이 놀라운 사실을 발견하든 흥미진진하게 생각하든, 그것은 강력하고 대담한 주장이며 아마도 그것이 완전히 사실이라고 해도 증명하기 어려운 주장일 것입니다.
LaMDA란 무엇입니까?
LaMDA는 대화 응용 프로그램용 언어 모델의 약자입니다. 즉, 자연스러운 대화를 생성하도록 특별히 설계된 기계 학습 언어 모델입니다. 기계 학습 방법을 사용하면 컴퓨터가 데이터의 패턴과 관계를 발견할 수 있습니다. 예를 들어, 셰익스피어의 모든 작품에 대해 GPT-3(또 다른 최첨단 시스템)과 같은 기계 학습 알고리즘을 "훈련"시킨 다음 셰익스피어처럼 읽는 새로운 원본 텍스트를 생성하도록 할 수 있습니다.
Sundar Pichai(Google CEO)가 Yahoo Finance와의 인터뷰에서 설명했듯이 LaMDA는 대화에 대해 특별히 훈련되었기 때문에 다른 시스템입니다. 의도는 Google 시스템이 사용자와 인간과 같은 개방형 대화에 참여할 수 있는 기능을 제공하는 것입니다.
즉, Google 제품에 특정 사항을 요구하는 사람들이 생각이나 말하는 방식을 변경할 필요가 없습니다. 그들은 다른 사람과 상호 작용하는 것과 같은 방식으로 컴퓨터 시스템과 상호 작용할 수 있습니다.
내부적으로 모든 현재 기계 학습 모델은 사실상 정교한 수학적 및 통계적 모델입니다. 데이터에서 발견한 기본 패턴을 기반으로 알고리즘을 생성합니다. 그들에게 충분한 고품질 데이터를 제공하면 이러한 알고리즘은 지금까지 인간이나 다른 자연 지능만이 할 수 있었던 일을 하는 데 놀라울 정도로 효과적입니다.
Google 엔지니어가 LaMDA가 지각이 있다고 믿는 이유는 무엇입니까?
문제의 엔지니어는 LaMDA가 지각이 있는 이유에 대한 사례의 일부로 자신과 LaMDA 간의 인터뷰를 발표한 Blake Lemoine입니다. Lemoine은 소프트웨어에 대해 심문하고 복잡한 질문을 하고 소프트웨어의 복잡하고 적절한 응답이 지각 있는 존재가 아닌 다른 어떤 것의 산물일 수 있다는 사실이 믿기 어렵다는 사실을 깨닫고 소프트웨어와 대화하는 데 몇 달을 보냈습니다.
Lemoine이 왜 이런 식으로 느끼는지 이해하려는 모든 사람은 LaMDA의 응답을 읽고 이것이 왜 그렇게 설득력 있는 입장인지 이해하는 것이 가장 좋습니다. LaMDA의 응답은 너무 인간적이어서 인간이 대화형 AI와 진지한 관계를 발전시키는 이야기인 Spike Jonze의 Her 에 나오는 가상의 개인 비서 AI를 연상시킵니다.
LaMDA에 대한 Lemoine의 주장이 의미가 있는지 여부를 제외하고 LaMDA의 전체 설계 목적은 자연스럽고 믿을 수 있는 개방형 대화를 생성하는 것입니다. 그런 의미에서 그의 신념은 Google이 믿을 만한 대화를 생성하는 데 놀라운 성공을 거두었다는 것을 나타냅니다. AI 시스템이 인간에게 자신이 지각이 있다고 확신시키려 한다면, 그렇게 하도록 특별히 설계된 시스템일 가능성이 큽니다.
문제는 지각력에 대한 주장이 여러 과학적, 철학적 이유로 인해 실제로 테스트할 수 없다는 것입니다(또는 적어도 실행 가능하거나 윤리적으로 테스트할 수 없음). 그 이유를 이해하려면 "감정"이 의미하는 바를 간단히 살펴봐야 합니다.
감성이란 무엇입니까?
"감각"이라는 단어는 본질적으로 무언가(고양이, 인간 또는 마법의 융단)가 느낄 수 있는 능력이 있음을 의미합니다. 그것은 "sentimental" 또는 "sentiment"와 같은 어근을 공유합니다. 감각이란 단지 감각할 수 있는 능력이 있다는 것을 의미하지 않습니다. 온도 조절 장치는 온도를 알 수 있음에도 불구하고 거의 확실히 지각이 없습니다. 대신, 감각은 주관적인 느낌의 경험에 관한 것인데, 이는 애초에 "주체"가 있음을 의미합니다.
Lemoine이 "sapience", "intelligence" 및 "의식"과 같은 별개의 개념과 상호 교환적으로 "sentience"라는 단어를 사용하고 있을 가능성이 높기 때문에 여기서 의미론에 휘말리는 것은 위험합니다. 따라서 논증을 위해 여기에서 가장 자선적인 해석은 Lemoine이 Lamda가 자의식이 있는 존재이며, 사물을 느끼고, 신념을 갖고, 그렇지 않으면 우리가 일반적으로 생물에 기인하는 방식으로 사물을 경험할 수 있다고 생각한다는 것입니다.
추가 기사에서 Lemoine은 LaMDA가 "원하는" 것과 "믿는 것"에 대해 논의합니다. 이는 그의 관점에서 "지성"이 엄격한 사전 정의 이상을 의미한다는 아이디어를 뒷받침합니다.
우리는 애초에 지각과 의식을 이해하지 못한다
여기 문제가 있습니다. 우리는 지각, 의식, 지능, 그리고 그러한 속성을 소유한 존재가 된다는 것이 무엇을 의미하는지에 대해 상대적으로 거의 알지 못합니다. 다소 아이러니하게도 머신 러닝 기술은 결국 우리가 마음과 그 안에 존재하는 두뇌에 대한 미스터리를 푸는 데 도움이 될 수 있습니다.
현재로서는 철학자들과 과학자들이 의식의 "블랙박스"를 깎아내고 있지만, 여전히 그 부분의 합보다 더 많은 것의 결과인 것 같습니다. 의식은 "창발적인" 것인 것처럼 보입니다. 그것은 많은 다른 신경 하위 시스템의 상호 작용에서 생성되는 "유령"입니다.
마찬가지로 DALL-E 2 이미지 생성 시스템과 같은 정교한 AI는 최종 제품을 만들기 위해 서로 피드를 제공하는 더 간단한 기계 학습 모델로 구성됩니다. 단순한 시스템의 상호 작용으로 인해 발생하는 복잡성이라는 주제는 AI 세계에서 자주 접하게 되는 주제이며, 각 하위 구성 요소가 어떻게 작동하는지 잘 알고 있지만 최종 결과는 일반적으로 예측할 수 없습니다.
우리는 AI의 감성을 인식할 수 있을까요?
논증을 위해 AI가 단어의 진정한 의미에서 실제로 지각이 있다면 우리가 말할 수 있을까요? LaMDA는 인간 대화의 패턴을 모방하고 예측하도록 설계되었으므로 인간이 인간과 같은 지능과 연관시키는 것을 트리거하는 데 있어서 이 데크는 실제로 쌓입니다. 그러나 인간이 아닌 영장류와 돌고래, 문어, 코끼리와 같은 동물을 지각 있는 것으로 간주하는 데 오랜 시간이 걸렸습니다.
지각 있는 AI는 너무 이질적이어서 우리가 바로 앞에 있는 AI를 보고 있는지 모를 수 있습니다. 이것은 감각이 출현하기 위한 문턱 조건이 무엇인지 모르기 때문에 특히 가능성이 높습니다. 데이터와 AI 하위 시스템의 올바른 조합이 올바른 방식으로 혼합되면 갑자기 지각이 있는 것으로 간주되는 무언가가 탄생할 수 있지만 우리가 이해할 수 있는 것처럼 보이지 않기 때문에 눈에 띄지 않을 수 있다고 상상하는 것은 어렵지 않습니다.
오리처럼 보인다면…
기계의 지각 주장과 관련된 마지막 큰 문제는 인간을 포함한 다른 모든 것의 지각 주장과 동일한 문제입니다. 철학적으로, 당신은 당신과 교류하는 사람들 중 실제로 지각이 있는 사람이 있는지 없는지 모릅니다. 그것은 고전적인 철학적 좀비 문제로, 지각력이나 의식적 경험이 없다는 점을 제외하고는 인간과 완전히 구별할 수 없는 가상의 존재에 대한 사고 실험입니다.
그러나 Alan Turing의 유명한 테스트가 주장했듯이 AI가 "정말로" 생각하고 느끼고 있는지 여부는 중요하지 않습니다. 중요한 것은 그것이 우리가 그 차이를 구별할 수 없을 정도로 생각과 느낌의 외양을 모방할 수 있다는 것입니다. 누구에게 물어보느냐에 따라 LaMDA는 이미 튜링 테스트를 통과했기 때문에 Lemoine의 검증할 수 없는 주장이 무의미해질 수 있습니다.