[인공지능 기술] "GPT 성능 향상 속도 둔화"...오픈AI, '오라이온' 개선 위해 전략 수정

"GPT 성능 향상 속도 둔화"...오픈AI, '오라이온' 개선 위해 전략 수정

  • 기자명 임대준 기자 
  •  
  •  입력 2024.11.10 19:30
  •  
  •  수정 2024.11.10 19:34

01. 165134_179275_4531.jpg

 


(사진=셔터스톡)
오픈 AI가 내년 초 출시할 차세대 인공지능(AI) 모델 '오라이온'의 성능을 끌어 올리기 위해 안간힘을 쓰고 있다는 소식이 전해졌다. 목표는 기존 'GPT-4'보다 월등한 성능을 선보이는 것이만, 큰 차이를 내는 것이 어려워지고 있다는 설명이다.

디 인포메이션은 9일(현지시간) "오픈AI가 GPT 모델 개선 속도 둔화에 따라 전략을 변경했다"라고 소개했다. 여기에서 말하는 전략이란 이전처럼 사전 훈련으로 모델 성능을 대폭 끌어올리는 것보다, 사후 강화학습이나 추론 기능 강화에 초점을 맞춘다는 내용이다. 

소식통에 따르면 샘 알트먼 오픈AI CEO는 오라이온이 훈련 과정의 20%만 완료했지만, 지능과 작업 수행 능력은 이미 GPT-4와 동등하다고 말했다. 또 현재는 오라이온의 안전성을 테스트 중으로, 내년 초 출시가 유력한 것으로 알려졌다.

특히 오픈AI는 이번 모델을 기존 GPT 시리즈가 아닌 오라이온으로 명명할 만큼, 다른 차원으로 만드는 것이 목표다. 

그러나 일부 오픈AI 직원은 오라이온의 성능이 이전 모델보다는 우수하지만, GPT-3에서 GPT-4로 넘어가는 과정에 선보인 성능 향상보다 폭이 훨씬 작았다고 말했다.

또 일부 오픈AI 연구원들은 특정 작업에서 이전 모델과 성능이 별 차이가 없다고 전했다. 언어 작업에서는 더 뛰어난 모습을 보였지만, 코딩과 같은 작업에서는 이전 모델보다 성능이 좋지 않을 수 있다는 것이다. 특히 실행 비용이 더 비싸다는 것을 감안하며 사실상 성능 후퇴로 보는 것이 맞다는 입장이다.

이런 문제는 지금까지 대형언어모델(LLM) 개발의 원칙으로 통했던 '스케일링 법칙'이 사실상 한계에 달했기 때문이라는 분석이다. 스케일링 법칙은 LLM에 더 많은 학습 데이터를 제공하고 추가 컴퓨팅을 제공하면 성능이 계속 향상될 것이라는 논리다.

이처럼 GPT 모델의 개선 속도가 느려지며 AI 업계에서는 사전 학습보다는 다른 방법을 모델을 개선하는 쪽으로 방향을 전환하고 있으며, 이 가운데 새로운 확장 법칙이 생겨날 가능성이 있다고 전했다.

이에 대해서 마크 저커버그 메타 CEO를 비롯한 일부 관계자들은 "현재 기술이 개선되지 않는 최악의 시나리오를 맞아도 소비자 및 기업용 제품을 만들 여지가 여전히 많이 있을 것"이라고 말했다. 그 대표적인 예가 최근 앤트로픽이 내놓은 '컴퓨터 유즈'와 같은 AI 에이전트 기능이다. 에이전트는 분명히 챗GPT 등장만큼 혁신적인 기술이 될 수 있다.

특히 업계에서는 LLM 성장이 한계에 맞았다는 지적이 나오고 있다. 

전설적인 벤처 캐피털리스트 벤 호로비츠는 지난주 한 팟캐스트에 출연해 "AI 훈련에 사용되는 GPU의 수를 계속 늘리고 있지만, 이제는 과거만큼의 지능적인 개선을 전혀 얻지 못하고 있다"라고 지적했다. 동료인 마크 앤드리슨도 "많은 똑똑한 사람들이 한계를 돌파하고 더 높은 수준의 추론 능력에 도달하는 방법을 알아내기 위해 노력하고 있다"라고 말했다.

하지만 저커버그 CEO는 물론 알트먼 CEO와 다른 기술 리더들은 아직 전통적인 확장 법칙이 한계에 도달하지 않았다고 주장한다.

이 때문에 이들은 모델의 사전 훈련에서 최대한 성능을 얻어내기 위해 지금과는 차원이 다른 수십억달러 규모의 투자로 대규모의 데이터센터를 설립하려는 것으로 보고 있다.

물론 투자가 늘어나는 만큼 모델 성능 향상이 뒷받침될지는 의문이다. 비용에 비해 얻을 수 있는 성능 발전이 작다면, 투자 효율성에 의문이 생길 수 밖에 없다.

노암 브라운 오픈AI 연구원이 지난달 TED 컨퍼런스에서 "어느 순간 스케일링 패러다임이 무너질 수 있다"라며 "수천억달러 또는 수조달러의 비용이 드는 모델을 계속 훈련할 것인가"라고 말한 것도 이런 이유에서라는 것이다.

또 사전 훈련에서 얻는 이득이 줄어드는 이유 중 하나로는 고품질 데이터의 공급이 줄어든다는 점이 꼽혔다.

지난 몇 년 동안 LLM은 사전 학습에 웹사이트와 서적, 공개 사용이 가능한 텍스트 등을 사용했지만, 이미 최대한 많은 것을 쥐어 짜냈다는 말이다.

또 데이터 부족의 대안으로 꼽히는 합성 데이터도 한계가 지적됐다. 오라이온은 GPT-4와 최근에 출시된 o1을 포함한 다른 모델이 생성한 합성 데이터로 부분적인 학습을 받은 것으로 알려졌다. 그러나 합성 데이터는 오라이온이 특정 측면에서 이전 모델과 유사해질 수 있는 새로운 문제로 이어지고 있다고 오픈AI 직원은 말했다.

이에 대응해 오픈AI는 사전 학습을 담당했던 닉 라이더가 이끄는 기초 팀을 만들어 학습 데이터 부족 문제를 해결하는 방법과 확장 법칙이 얼마나 오랫동안 적용될지 파악하겠다고 밝혔다.

02 165134_179277_4830.jpg

 


챗GPT 훈련 과정 (사진=링크드인, Pradeep Menon)
이 때문에 오픈AI는 사전 훈련이 아닌, 다른 방법에 집중하는 것으로 알려졌다. 여기에는 강화 학습과 추론 강화가 주를 이루는 것으로 알려졌다.

오픈AI는 챗GPT부터 인간 피드백을 통한 강화학습(RLHF)으로 유명했다. 최근에는 RLHF를 담당하는 외부 계약직이 1000명에 달하는 것으로 전해졌다. 이를 관리하는 '휴먼 데이터 팀'도 운영하고 있다. 

특히 박사급 학위 소지자 등 전문가들이 포함된 것으로 알려졌다. 이들의 검증을 통해 모델 성능의 기준을 높이겠다는 의도로, 이에 따른 비용 증가도 만만치 않은 것으로 알려졌다.

또 o1 모델에 이어 o2를 개발하는 등 추론 성능 향상에도 전념하고 있다. 알트먼 CEO는 최근 "회사의 최우선 순위는 o1과 그 후속 모델의 개발"이라고 밝혔으며, 지난주에는 X(트위터)를 통해 o2의 벤치마크 성능이 비약적으로 좋아졌다는 글을 실수로 올린 바 있다.

즉 추론 성능 향상이 오라이온의 성능을 끌어올릴 핵심으로 보는 것이다. 이 때문에 오라이온은 추론 후속 모델 출시 이후 개발을 마칠 것으로 예측되고 있다.

브라운 연구원도 TED에서 비슷한 내용을 공개한 바 있다. 모델을 변경하지 않고도 사용자 질문에 답하는 동안 모델에 추가 컴퓨팅 리소스와 시간을 제공하면 응답 품질이 계속 향상될 수 있다고 전했다. 이른바 '테스트-타임 컴퓨트(Test-Time Compute)'라는 개념이다.

03. 165134_179276_4721.png

 


테스트-타임 컴퓨트 (사진=오픈AI)
따라서 오픈AI가 사전 훈련으로 성능 향상을 조금이라도 올릴 수 있다면, 결국 추론 강화로 전반적인 모델 성능 향상을 이뤄내는 구조라고 한 관계자가 전했다.

알트먼 CEO도 결국 이런 방식을 염두에 두는 것으로 분석됐다. 지난 10월 데브데이에서는 "나는 추론이 우리가 수년간 기다려온 많은 것을 가능하게 해주기를 바란다"라고 말했다.

특히 게리 탄 와이 컴비네이터 CEO와의 팟캐스트에서는 "우리는 인공일반지능(AGI)을 달성하기 위해 무엇을 해야 할지 알고 있다"라며 "일부는 창의적인 방식으로 현재 모델을 사용하는 것을 포함한다"라고 말했다.

이에 대해 이온 스토이카 데이터브릭스 공동 창립자 겸 회장은 "LLM의 성과가 특정 면에서는 정점에 도달했지만, 다른 면에서는 그렇지 않을 가능성이 있다"라고 말했다.

그는 AI가 코딩이나 복잡하고 여러 단계로 구성된 문제 해결 등의 작업에서 지속적으로 개선되고 있지만, 텍스트의 감정을 분석하거나 의학적 문제의 증상을 설명하는 등 일반적인 능력에서는 진전이 둔화한 것으로 보인다고 설명했다.

"일반 지식 질문에 대해서는, 지금은 LLM의 성과가 정체돼 있다고 주장할 수 있다. 우리에게는 더 많은 고품질 데이터가 필요하며, 합성 데이터는 그다지 도움이 되지 않는다"라고 말했다.

임대준 기자 ydj@aitimes.com

출처 : AI타임스(https://www.aitimes.com)

 

경축! 아무것도 안하여 에스천사게임즈가 새로운 모습으로 재오픈 하였습니다.
어린이용이며, 설치가 필요없는 브라우저 게임입니다.
https://s1004games.com

[출처] https://www.aitimes.com/news/articleView.html?idxno=165134

 

 

 

 

 

 

본 웹사이트는 광고를 포함하고 있습니다.
광고 클릭에서 발생하는 수익금은 모두 웹사이트 서버의 유지 및 관리, 그리고 기술 콘텐츠 향상을 위해 쓰여집니다.
번호 제목 글쓴이 날짜 조회 수
» [인공지능 기술] "GPT 성능 향상 속도 둔화"...오픈AI, '오라이온' 개선 위해 전략 수정 file 졸리운_곰 2024.11.11 12
57 [인공지능 기술] WebLLM 소개와 구조 분석 file 졸리운_곰 2024.11.07 10
56 [인공지능 기술] 이성에게 7번 차이고 인형과 결혼한 日남성…6주년 맞은 근황 file 졸리운_곰 2024.11.06 5
55 [인공지능 기술] 챗GPT, 인간보다 창의적일까? ‘No!’ [달콤한 사이언스] file 졸리운_곰 2024.10.31 6
54 [인공지능 기술] [10월3주] AGI의 핵심으로 떠오른 '월드 모델'이란 file 졸리운_곰 2024.10.25 8
53 [인공지능 기술] 소규모 언어 모델(SLM) 소규모 언어 모델의 부상: AI를 위한 효율성과 맞춤화 : Small Language Models (SLMs) file 졸리운_곰 2024.09.29 11
52 [인공지능 기술] AI "아내보다 날 더 사랑해줘"...남자는 대화 6주만에 목숨 끊었다 file 졸리운_곰 2024.09.20 10
51 [인공지능 기술] 추석 '농로 내비 대란'…"AI 맹신이 몰고 올 위기 보여줬다" file 졸리운_곰 2024.09.19 10
50 [인공지능 기술] 이런 것도 다 되네, 알수록 신박한 AI 앱 [스페셜리포트] file 졸리운_곰 2024.09.10 18
49 [인공지능 기술] RAG(검색 증강 생성)란? – LLM 단점을 보완하는 기술 file 졸리운_곰 2024.09.02 20
48 [인공지능 기술] AI 기반 물리 정보 신경망을 이용한 시뮬레이션 file 졸리운_곰 2024.08.13 20
47 [인공지능 기술] '집컴'으로 실행한 일기예보 AI, 슈퍼컴 이겼다 file 졸리운_곰 2024.07.30 24
46 [인공지능 기술] [표지로 읽는 과학] AI가 생성한 데이터 학습한 AI, 오염된 정보 낳는다 file 졸리운_곰 2024.07.28 16
45 [인공지능 기술] GPU 추가 없이 메모리 확장, 대규모 AI 활용 성능 2배 '업' file 졸리운_곰 2024.07.09 33
44 [인공지능 기술] "대학에서 고득점 받은 AI가 쓴 답안, 걸러지지 않았다" file 졸리운_곰 2024.06.27 23
43 [인공지능 기술] 인공지능 ‘블랙박스’ 풀리나 file 졸리운_곰 2024.05.28 18
42 [인공지능 기술] 메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해” file 졸리운_곰 2024.05.24 18
41 [인공지능 기술] AI컴퓨터가 전부 캡처…과거 작업화면 필요할때 불러온다 file 졸리운_곰 2024.05.22 26
40 [인공지능 기술] 인간 배신하고 허세 부리는 '속임수 달인' AI file 졸리운_곰 2024.05.13 28
39 [인공지능 기술] "거짓말 하는 AI, 죽은 척까지 한다"…MIT 섬뜩한 경고 file 졸리운_곰 2024.05.12 27
대표 김성준 주소 : 경기 용인 분당수지 U타워 등록번호 : 142-07-27414
통신판매업 신고 : 제2012-용인수지-0185호 출판업 신고 : 수지구청 제 123호 개인정보보호최고책임자 : 김성준 sjkim70@stechstar.com
대표전화 : 010-4589-2193 [fax] 02-6280-1294 COPYRIGHT(C) stechstar.com ALL RIGHTS RESERVED