OpenAI, 마음을 사로잡는 AI 언어 모델 GPT 4 발표
게시 됨: 2023-03-15OpenAI는 헤드라인을 장식했습니다. ChatGPT의 제작자와 인공 지능을 사용하여 우리가 기계 및 주변 세계와 상호 작용하는 방식을 통합하고 혁신하려는 시도는 OpenAI가 마음을 사로잡는 AI 언어 모델 GPT 4를 발표함에 따라 속도가 느려질 기미가 보이지 않습니다.
또한 읽기: OpenAI Chatgpt 4를 사용하면 텍스트를 비디오로 전환할 수 있습니다.
모든 소문과 추측 끝에 Open AI는 인간 수준의 기능을 간소화하고 이미지 및 텍스트 입력에 응답하는 최신 AI 언어 모델을 출시했습니다. 이 새로운 라인업은 Chat GPT 및 Bing에 대한 최신 추가 기능과 같은 애플리케이션을 지원합니다.
기능 및 정렬에 대한 최고의 결과를 제공하는 대형 멀티모달 모델인 GPT-4 발표: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg
— OpenAI(@OpenAI) 2023년 3월 14일
“ 우리는 OpenAI의 딥 러닝 확장 노력의 최신 이정표인 GPT-4를 만들었습니다. GPT-4는 많은 실제 시나리오에서 인간보다 능력이 떨어지지만 다양한 전문 및 학술 벤치마크에서 인간 수준의 성능을 보여주는 대규모 다중 모델(이미지 및 텍스트 입력을 수락하고 텍스트 출력을 내보냄)입니다.”라고 발표 블로그에서 읽습니다. 우편.
개발자들의 주장대로 이 기발한 모델은 이전보다 더 기능적이고 정전 용량이 많으며 더 정확합니다. OpenAI는 내부 적대 테스트 프로그램과 ChatGPT의 교훈을 사용하여 GPT 4를 "반복적으로 정렬"하는 데 6개월을 보냈고 그 결과 탁월한 모델의 전례 없이 안정적인 버전을 얻었다고 말하면서 발전을 확장하기 위한 노력에 대해 밝혔습니다.
" 우리는 6개월 동안 적대적 테스트 프로그램과 ChatGPT의 교훈을 사용하여 GPT-4를 반복적으로 조정하여 사실성, 조종성 및 가드레일을 벗어나지 않는다는 점에서 (완벽하지는 않지만) 최고의 결과를 얻었습니다. ”
OpenAI는 Microsoft와 협력하여 GPT 4를 교육하기 위해 지상에서 Azure 클라우드까지 슈퍼 컴퓨터를 개발했습니다. 그 외에도 OpenAI는 GPT 4를 자사 제품에 통합하기 위해 여러 회사와 파트너십을 맺었으며 그중 일부에는 Duolingo, 스트라이프, 칸아카데미.
ChatGPT용 GPT 3.5와 비교하여 GPT 4는 어디에서 두드러지나요?
1. GPT 4는 이미지를 보고 이해합니다: 언어 모델 변경에 대해 가장 기대하고 이야기하는 부분입니다. 이를 위해 OpenAI가 Be My Eyes와 파트너 관계를 맺었다는 사실에 감사드립니다. "다중 모드" 학습 시스템이므로 한 가지 이상의 정보 형식을 이해합니다. 따라서 전작과 마찬가지로 텍스트에 응답하는 것 외에도 올해는 도약하고 이미지도 처리합니다. 재료 사진만 보고 레시피를 알려주거나, 사진을 보고 기계 사용법을 설명하는 등. 그러나 문자로만 응답합니다.
2. 속이기 어렵다: " 가드레일 밖으로 나가는 것을 거부", 이것은 OpenAI가 GPT 4에 대해 주장하는 것입니다. 그들의 주장에 따르면, GPT 4는 달래거나 적대적으로 행동할 수 없습니다. GPT 3.5와 비교하여 모든 형태의 미묘한 지침을 처리할 수 있습니다. 이것은 지난 2년 동안 사람들이 OpenAI에 제공한 데이터를 사용하여 많은 악의적인 프롬프트에 대해 훈련되었습니다.
3. 더 긴 메모리 : GPT 4의 언어 모델은 웹 페이지, 책 및 기타 텍스트 데이터의 상당한 학습 스택에서 학습되었습니다. 이 모델의 학문적 벤치마크는 모의 변호사 시험에 대한 응시자의 상위 10%에서 점수를 얻었기 때문에 하위 10%에 속하는 GPT 3.5와 비교하여 성능이 크게 향상되었습니다. 또한 저장을 염두에 두는 경우 GPT 3.5에 비해 한도가 비교적 중요합니다. 전자는 4096개의 토큰(거의 8000단어 또는 책의 4~5페이지)으로 제한되었지만 최신 번역은 약 64000단어 또는 50페이지의 텍스트를 번역합니다.
4. 다국어 효율성: GPT 4의 Massive Multitask Language Understanding 벤치마크는 26개 언어로 거의 57개 주제를 다루는 14,000개의 객관식 문제 모음으로 구성되었습니다. 이 모델은 이탈리아어, 라트비아어, 한국어, 네팔어, 우르두어 등 26개 언어 중 24개 언어에서 GPT 3.5 영어 성능에 비해 우수한 성능을 보였습니다.
5. 행동 특성: Open AI는 GPT 4의 조종 가능성 측면에서 작업했다고 주장합니다. 기계 언어 모델은 필요에 따라 행동과 성격을 변경할 수 있습니다. 이것은 종종 따뜻한 동반자, 때로는 악마 통치자로 행동하는 현실과 동기화되는 기계의 역할을 더욱 강화합니다. AI의 스타일, 장황함, 어조 및 작업은 이제 사용자가 GPT 3.5보다 더 자연스러운 방식으로 규정할 수 있습니다. 또한 API 사용자는 범위 내에서 사용자 경험에 맞게 사용자 정의할 수 있습니다.
GPT 4는 현재 대기자 명단에 등록할 수 있는 개발자를 위한 API 형식뿐만 아니라 ChatGPT Plus 월 20달러 구독을 통해 OpenAI의 프리미엄 사용자에게 공개됩니다. 가격 책정에 관한 한, 1000개의 "프롬프트" 토큰(거의 750단어)당 $0.03 및 1000개의 "완료" 토큰(거의 750단어)당 $0.006입니다. 토큰은 원시 텍스트를 나타내고 프롬프트 토큰은 모델에 제공되는 단어의 일부이며 완료 토큰은 생성된 콘텐츠입니다.
결국 논의해야 할 부분이 많고, 개발자들도 GPT 4의 한계와 위험성을 충분히 고려했습니다. 그들은 여전히 GPT 4가 GPT 3.5에 비해 환각을 줄이지만 그들의 모델이 완전히 신뢰할 수 없다는 진술로 사용자를 루프에 유지합니다. 그들은 사실을 환각하고 오류를 생성할 수 있으므로 사용할 때 주의해야 합니다. 더욱이 선택, 필터링, 평가 시행 및 모니터링에 대한 엄격한 교육을 거친 후에도 유해한 조언이나 잘못된 정보가 여전히 생성될 수 있습니다.
권장 사항: 사이버 보안에서 인공 지능의 역할은 무엇입니까?
이제 우리는 더 발전된 형태의 기계 학습 기술과 실생활에서의 응용을 향해 천천히 나아가고 있으므로 원치 않는 결과로 뒷받침되는 더 나은 결과가 항상 있기 때문에 상황을 양심적으로 받아들여야 합니다. 즉, OpenAI가 마음을 사로잡는 AI 언어 모델 GPT 4를 발표함에 따라 우리는 이것이 혁신의 형태로 이어지는 곳을 목격해야 할 책임이 있습니다. 아래 의견란에 귀하의 생각을 알려주십시오.
출처: Open AI 블로그