9 7월 2024

[인공지능 기술] GPU 추가 없이 메모리 확장, 대규모 AI 활용 성능 2배 ‘업’

[인공지능 기술] GPU 추가 없이 메모리 확장, 대규모 AI 활용 성능 2배 ‘업’

GPU 추가 없이 메모리 확장, 대규모 AI 활용 성능 2배 ‘업’

입력
KAIST 연구진

컴퓨트 익스프레스 링크(CXL, Compute Express Link) 기술은 GPU를 추가하지 않고도 GPU 메모리를 확장할 수 있는 기술이다. KAIST 제공

컴퓨트 익스프레스 링크(CXL, Compute Express Link) 기술은 GPU를 추가하지 않고도 GPU 메모리를 확장할 수 있는 기술이다. KAIST 제공

국내 연구팀이 인공지능(AI) 기술 구현의 핵심인 그래픽처리장치(GPU)의 메모리 확장 기술을 개선해 성능을 끌어올렸다.

KAIST는 정명수 전기및전자공학부 교수팀이 차세대 인터페이스 기술인 ‘컴퓨트 익스프레스 링크(CXL, Compute Express Link)’가 활성화된 고용량 GPU의 메모리 읽기·쓰기 성능을 최적화하는 기술을 개발했다고 8일 밝혔다. 연구결과는 7월 미국 유즈닉스(USENIX) 연합 학회와 핫스토리지 연구 발표장에서 선보일 예정이다.

최신 대규모 언어모델(LLM)은 추론·학습에 수십 테라바이트(TB, 1TB는 1024GB)의 메모리가 필요하다. 단일 GPU의 내부 메모리 용량은 수십 기가바이트(GB) 수준이라 단독으로 언어 모델을 활용하는 것은 불가능하다. 일반적으로 GPU 여러 개를 연결하는 방식을 사용하지만 최신 GPU의 높은 가격이 걸림돌이다.

대용량 메모리 장치를 GPU에 연결해 메모리 크기를 확장하는 ‘CXL-GPU’ 구조가 산업계에서 주목받고 있다. 메모리 용량을 늘리기 위해 값비싼 GPU를 추가로 구매할 필요가 없기 때문이다. 하지만 GPU에 연결된 메모리 확장 장치의 읽기·쓰기 속도가 GPU 내부 메모리와 비슷한 수준으로 구현돼야 대규모 AI 서비스에 활용될 수 있다.

연구팀은 CXL-GPU의 메모리 읽기·쓰기 성능이 저하되는 원인을 분석하고 이를 개선했다. 확장된 메모리의 쓰기 작업 완료 여부를 기다리지 않고도 동시에 GPU 내부 메모리에도 쓰기 작업을 할 수 있도록 해 쓰기 성능을 개선한 것이다. 읽기 작업에서도 확장된 메모리 장치에서 필요한 읽기 작업을 미리 수행할 수 있도록 해 읽기 성능을 향상시켰다.

국내 반도체 팹리스 스타트업인 파네시아(Panmnesia)의 CXL-GPU 프로토타입을 활용해 성능을 검증한 결과 기존 GPU 메모리 확장 기술보다 AI 서비스를 2.36배 빠르게 실행할 수 있는 것으로 나타났다.

정명수 교수는 “CXL-GPU 시장 개화 시기를 앞당겨 대규모 AI 서비스를 운영하는 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 것”이라고 밝혔다.

Loading

30 6월 2024

[정보 (및 수학)]당신이 ‘=’의 의미를 모두 안다고 생각한다면 ‘착각’

[정보 (및 수학)]당신이 ‘=’의 의미를 모두 안다고 생각한다면 ‘착각’

당신이 ‘=’의 의미를 모두 안다고 생각한다면 ‘착각’

입력
두 개의 대상이 서로 같다는 것을 나타낼 때 사용하는 기호 ‘=’를 '등호'라고 한다. 게티미지뱅크 제공

두 개의 대상이 서로 같다는 것을 나타낼 때 사용하는 기호 ‘=’를 ‘등호’라고 한다. 게티미지뱅크 제공

두 개의 대상이 서로 같다는 것을 나타낼 때 사용하는 기호 ‘=’를 ‘등호’라고 한다. 최근 컴퓨터로 수학 문제 증명을 시도하는 수학자들이 =의 의미가 불분명해 컴퓨터 증명에 어려움을 겪고 있다는 내용의 논문을 발표했다. ‘같음’의 정의에 대해 수학계에서 다시 한번 생각해봐야 한다는 메시지다.

케빈 버자드 영국 임페리얼대 교수 연구팀은 지난달 논문 공개사이트 ‘아카이브’에 논문 형식의 결과 보고서를 발표했다. 버자드는 수학 역사상 가장 유명한 정리인 ‘페르마의 마지막 정리’를 컴퓨터 언어를 이용해 증명하고 있는 수학자로 유명하다. 정확히 말하면 1995년 영국의 수학자 앤드루 와일스가 증명한 내용 등을 ‘린(Lean)’으로 검증하고 있다. 린은 마이크로소프트 리서치팀이 2013년 개발한 수학 증명을 검증하는 소프트웨어다.

버자드 교수는 린에 컴퓨터 언어인 ‘코드’로 증명 내용을 변환해 입력하는 과정에서 =를 컴퓨터에 이해시키는 것이 까다롭다는 사실을 발견했다. =를 수학자마다 혹은 분야별로 조금씩 다른 의미로 쓰고 있었기 때문이다. 지금까지 cm, km 같은 단위 기호처럼 수학기호의 의미를 전세계가 공식적으로 확정하는 절차가 없었다.

=가 다양하게 쓰이는 이유는 근본적으로 같음에 대해 사람들의 생각이 다르기 때문이다. 예를 들어 ‘2+2=4’는 2+2와 4가 같다는 의미다. 대부분 동의하는 식이겠지만 형식과 모양을 판단 기준으로 한다면 두 개의 2가 +를 가운데 두고 있는 모양이 숫자 4가 하나밖에 없는 모양과 아예 다르다고 할 수 있다.

이처럼 수학에서는 같음을 다양하게 정의할 수 있다. 예를 들어 수학의 한 분야인 ‘위상수학’에서는 도넛과 커피잔이 같으므로 도넛=커피잔이라고 쓸 수 있다.

위상수학은 단순히 길이나 크기 같은 직관적인 수치 비교를 넘어 추상적인 물체들의 성질을 연구하는 분야다. 위상수학에서는 구멍을 내거나 가위로 자르지 않고 어떤 도형을 찰흙처럼 주물러 다른 도형으로 만들 수 있으면 두 도형을 같다고 정의한다. 위상수학자들은 도형의 점, 선, 면의 위치 관계에만 관심이 있기 때문에 도넛과 커피는 구멍이 하나인 물체로 같다. 하지만 다른 분야에서 도넛과 커피잔은 다른 물체다.

수리철학을 연구하는 최정담 ‘발칙한 수학책’ 작가는 “{a, b, c}와 {1, 2, 3}은 ‘집합의 크기’에만 집중하는 수학자에게는 {a, b, c}={1, 2, 3}다”라면서 “누군가에게 ‘다름’인 명제가 누군가에겐 ‘같음’일 수 있다”고 설명했다. 버자드 교수는 과학 온라인 매체 ‘뉴사이언티스트’에 “현대 수학자들은 다소 느슨하게 =를 사용하고 있다”고 말했다. 수학자들이 =에 대한 개념 정의를 확실히 하지 않은 채 쓰고 있다는 말이다. 심지어 같음을 나타내는 기호도 = 외 여러 개 존재한다.

이같은 이유로 버자드 교수는 =를 컴퓨터에 이해시키기 어렵다고 설명했다. 수학 증명의 문맥을 이해한 뒤 여기서 쓰인 =의 의미를 밝혀내고 컴퓨터에 입력해야 하기 때문이다.

버자드 교수의 논문이 주목받는 이유는 최근 수학계에서 인공지능(AI)이 수학 연구 방법을 완전히 바꿀 것으로 기대하고 있기 때문이다. 수학자가 AI 도구를 이용해 새로운 추측을 제시하고 린의 도움을 받아 정확히 증명하는 미래를 꿈꾸고 있다. 이를 위해서는 컴퓨터가 현재 수학의 내용을 완벽히 이해해야 한다. 버자드 교수의 이번 논문은 수학계가 앞으로 겪을 어려움을 미리 보여준다는 의미가 있다.

Loading

27 6월 2024

[인공지능 기술] “대학에서 고득점 받은 AI가 쓴 답안, 걸러지지 않았다”

[인공지능 기술] “대학에서 고득점 받은 AI가 쓴 답안, 걸러지지 않았다”

“대학에서 고득점 받은 AI가 쓴 답안, 걸러지지 않았다”

입력
챗GPT-4가 작성한 답안이 영국 대학 시험 시스템에서 거의 탐지되지 않고 실제 학생들이 낸 답안보다 고득점한 것으로 나타났다. 게티이미지뱅크 제공

챗GPT-4가 작성한 답안이 영국 대학 시험 시스템에서 거의 탐지되지 않고 실제 학생들이 낸 답안보다 고득점한 것으로 나타났다. 게티이미지뱅크 제공

영국 연구팀이 인공지능(AI)으로 생성한 답안이 실제 대학교 시험에서 탐지망을 뚫고 학생들이 직접 작성해 제출한 답안보다 더 높은 점수를 받았다는 연구결과를 내놨다. 과학자들은 챗GPT 등 AI 도구 사용이 대중화되면서 교육과 평가 시스템에 대책 마련이 필요하다고 지적했다.

피터 스카프 영국 레딩대 심리학 및 임상언어과학과 교수 연구팀은 대학교 시험 시스템에서 AI로 생성한 답안이 걸러지지 않고 학생들이 제출한 것보다 높은 점수를 받았다는 사실을 실험으로 밝혀내고 연구결과를 26일(현지시간) 국제학술지 ‘플로스원’에 공개했다.

챗GPT와 같은 AI 도구가 최근 급속도로 발전하고 보급되면서 학생들이 AI로 생성한 내용을 자기 이름으로 제출하는 부정행위에 대한 우려가 커지고 있다. 특히 신종 코로나바이러스 감염증(코로나19) 대유행 시기에 다수 대학이 재택 시험으로 전환하고 이를 유지하는 경우가 많아 문제는 더욱 심각하다.

연구팀은 챗GPT-4가 100% 작성한 답안을 생성한 뒤 가짜 학생 33명으로 위장하고 레딩대 심리학 및 임상언어과학부 시험 시스템에 제출했다. 채점자들은 연구에 대해 전혀 몰랐다.

그 결과 AI가 제출한 답안 중 94%가 탐지되지 않은 것으로 나타났다. AI가 생성한 답안이 실제 학생이 작성해 제출한 답안보다 평균적으로 더 높은 점수를 받았다. 학생들이 AI를 이용해 시험 부정행위를 할 수 있을 뿐만 아니라 부정행위를 하지 않은 학생보다 더 좋은 성적을 받을 수도 있는 것이다. 연구팀은 “실제 학생 중 상당수가 이미 AI가 생성한 답안으로 부정행위를 했을 수 있다”고 설명했다.

지난해 유네스코가 450개 학교를 대상으로 실시한 설문조사에 따르면 생성형 AI 사용에 대한 정책·지침이 있는 학교는 10% 미만인 것으로 나타났다. 연구팀은 전 세계 교육계가 새로운 정책과 지침을 마련해 문제를 해결해야 한다고 촉구했다.

연구팀은 “대면 시험으로 돌아가는 것이 문제를 해결하는 데 도움이 될 수도 있지만 AI 도구는 계속 발전하고 직장에서도 쓰이는 중”이라며 “전 세계 교육계가 AI에 맞서 진화해야 한다”고 지적했다.

<참고 자료>
– doi.org/10.1371/journal.pone.0305354

Loading

10 6월 2024

[알아봅시다] 주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

[알아봅시다] 주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

입력
사진=인스타그램 홈페이지 캡처

사진=인스타그램 홈페이지 캡처
소셜네트워크서비스(SNS) 애플리케이션(앱) 인스타그램이 한국인이 오래 사용하는 모바일 앱과 자주 사용하는 앱 부문에서 네이버를 큰 폭으로 앞서고 있다.

9일 앱·리테일 분석 서비스 와이즈앱·리테일·굿즈(와이즈앱)가 스마트폰 사용자를 표본 조사한 결과 5월 인스타그램 사용 시간은 3억8993만7341시간으로 유튜브(18억210만8742시간), 카카오톡(5억6587만7442시간)에 이어 ‘오래 사용하는 앱’ 3위를 기록했다.

인스타그램 사용 시간은 지난 3월 네이버에 이어 4위였지만 4월 3.3% 증가한 3억4787만3865시간을 기록하며 0.8% 감소한 네이버를 1386만1509시간 차이로 제치고 3위로 올라선 뒤 두 달째 순위를 유지했다. 지난달 네이버와 격차는 전월의 3.3배 수준인 4641만8705시간으로 커졌다.

인스타그램은 ‘자주 사용하는 앱’ 부문에서도 네이버와 격차를 키웠다. 지난달 국내 인스타그램 실행 횟수는 178억5524만6930회로 카카오톡(787억6736만194회)에 이어 2위였다. 네이버는 143억9131만1518회로 3위, 유튜브는 139억7395만1681회로 4위였다. 인스타그램은 작년 11월 실행 횟수 131억6934만2673회로 5위였지만 12월 네이버와 유튜브를 제치고 두 계단 뛰어오르며 2위로 등극했다.

인스타그램 사용 시간과 실행 횟수의 이 같은 증가세는 2021년 출시된 숏폼(짧은 영상) 서비스 ‘릴스’가 젊은 층 사이에서 큰 인기를 끌고 있기 때문으로 풀이된다. 네이버도 작년 8월 숏폼인 ‘클립’을 출시했지만 아직 사용 시간이나 실행 횟수 증가에 크게 도움이 되지 않고 있는 것으로 풀이된다.

네이버가 조만간 정부 부처와 공공기관 공식 사이트 검색 결과에서 인스타그램과 유튜브, 페이스북, 엑스(X·옛 트위터) 등 SNS 콘텐츠 연동을 종료하기로 한 것도 경쟁 외국계 플랫폼으로부터 이용자 수를 지키려는 노력의 일환이라는 관측도 나온다.

Loading

28 5월 2024

[인공지능 기술] 인공지능 ‘블랙박스’ 풀리나

[인공지능 기술] 인공지능 ‘블랙박스’ 풀리나

인공지능 ‘블랙박스’ 풀리나

기자이희욱
  • 수정 2024-05-27 09:32
  • 등록 2024-05-27 09:00
‘금문교’를 입력했더니 여러 언어에 걸쳐 연관성 높은 단어들이 활성화됐다. 주황색 부분은 해당 기능이 활성화된 단어나 단어 일부이다. 앤스로픽
‘금문교’를 입력했더니 여러 언어에 걸쳐 연관성 높은 단어들이 활성화됐다. 주황색 부분은 해당 기능이 활성화된 단어나 단어 일부이다. 앤스로픽

인공지능 챗봇의 두뇌는 거대언어모델이다. 거대언어모델은 ‘블랙박스’와 같다. 우린 아직 그 작동 원리를 명확히 밝혀내지 못했다. 이런 인식의 배경엔 두려움이 똬리틀고 있다. 어느날 인공지능이 인간의 지시 없이 핵폭탄 발사 단추를 누른다면? 인간 통제를 벗어난 영화 속 ‘스카이넷’이 언제 현실이 될지 알 수 없다.

인공지능 스타트업 앤스로픽이 이런 두려움에 제동을 거는 소식을 전했다. 앤스로픽은 최근 ‘클로드3 소네트’의 내부를 상세히 분석한 연구 결과를 발표했다. 클로드3 소네트는 앤스로픽이 올해 3월 공개한 거대언어모델로, 매개변수가 700억개에 이른다. 작은 표본 모델을 대상으로 작동 원리를 들여다본 실험은 있었지만, 이 정도 큰 언어모델의 내부 작동 원리를 규명한 건 생성 인공지능 등장 이후 처음이다.

인공지능 모델 내부는 사람의 뇌와 비슷한 방식으로 작동한다. 뇌에서 뉴런이 신호를 주고받아 정보를 처리하듯, 인공지능 모델도 수많은 인공 뉴런이 정보를 주고받으며 작동한다. 인공지능이 질문에 답하기 전에 ‘생각하는’ 과정은 이 뉴런들의 활동이다. 인공 뉴런은 사람이 생각하는 개념을 여러 뉴런에 걸쳐 표현한다. 우리가 ‘사과’란 단어를 생각할 때 여러 뇌세포가 동시에 활성화되는 것과 비슷하다. 하지만 인공지능의 뉴런 활동은 숫자 목록으로 표현되기에, 겉보기엔 복잡하고 이해하기 어렵다.

연구진은 이런 뉴런 활성화 패턴을 분석해 인간이 이해할 수 있는 개념과 일치시키는 작업을 진행했다. 샌프란시스코, 로잘린드 프랭클린, 리튬 원소, 면역학, 개발 코드 등 다양한 개념을 넣어 인공지능 뉴런이 어떤 식으로 활성화되는지 살폈다. 그랬더니 인공지능이 어떤 개념을 어떻게 표현하는지 드러났다.

인공지능은 한 개념을 떠올릴 때 연관 단어 사이의 ‘거리’를 측정했다. ‘금문교’ 단어와 근처엔 알카트라즈 섬, 기라델리 스퀘어, 골든 스테이트 워리어스, 캘리포니아 주지사 개빈 뉴섬, 1906년 지진, 알프레드 히치콕의 영화 ‘현기증’이 자리잡고 있는 식이다. 지금까진 인공지능이 수백억 개 뉴런 속 어딘가에서 의미들을 가져와 질문에 대답하는 건 알았지만, 구체적으로 어디서 무엇을 가져오는지는 몰랐다. 이번 실험은 인공지능이 의미를 수집해 오는 뉴런의 연결 경로를 알아냈다.

작동 방식을 이해하면 조작도 가능하다. ‘금문교’란 특성을 증폭했더니 클로드는 ‘너는 누구야?’란 질문에 ‘나는 인공지능 챗봇입니다’ 대신 ‘나는 금문교입니다. 내 육체는 상징적인 다리 자체입니다’라고 대답했다. 이처럼 특정한 특성을 조정해 인공지능의 사고 방식과 답변을 조절할 수 있음이 실험으로 확인됐다.

조작이 가능하면 통제도 어렵잖다. 인공지능 시스템이 위험한 행동을 하는지 추적하거나, 질문에 대한 답변을 바람직한 결과로 유도하거나, 위험한 주제를 제거할 수 있다. 인공지능이 해로운 답변이나 예상치 못한 폭주를 하지 않도록 제어하는 스위치를 찾아낸 것이다.

오픈에이아이는 최근 사람의 감정을 이해하는 거대언어모델 ‘지피티-포오’(GPT-4o)를 공개했다. 하지만 그 직후 안전한 인공지능을 연구하는 사내 전담 조직을 없앴다. 안전보다 효율을 우선시한 인공지능 업체들의 발걸음을 걱정하는 목소리도 커졌다. 오픈에이아이가 “좋아, 빠르게 가”를 외치며 인공지능의 제동장치 점검을 뭉개는 동안, 앤스로픽은 블랙박스를 열어젖혔다. 이번 연구는 인공지능 모델의 심연을 탐색하는 첫걸음이다.

이희욱 미디어랩팀장 asadal@hani.co.kr

[출처] https://www.hani.co.kr/arti/economy/it/1142149.html#cb

Loading

24 5월 2024

[인공지능 기술] 메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

[인공지능 기술] 메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

입력
얀 르쾽 AI 수석 과학자 “논리 이해, 매우 제한적”
인간 수준 지능 AI 시스템, 10년 걸릴 듯

메타 AI 로고./로이터연합

메타 AI 로고./로이터연합
“거대언어모델(LLM)은 논리에 대한 이해가 매우 제한적이다. 물리적 세계를 이해 못할 뿐더러 지속적인 기억력이 없으며, 용어에 관한 합리적 정의를 추론할 수도, 계층적으로(hierarchically) 계획할 수도 없다.”

메타의 인공지능(AI) 책임자이자 AI 수석 과학자인 얀 르쾽은 23일(현지 시각) 파이낸셜타임스(FT) 인터뷰에서 이 같이 말하고 “LLM은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것”이라고 했다.

그는 “이에 따라 기계 장치들에서 ‘초지능(superintelligence)’을 만들어 내기 위한 급진적인 방식의 대안에 집중하고 있다”고 덧붙였다.

르쾽은 AI 기술을 개척한 공로를 인정받아 2019년 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 공동 수상했으며, 마크 저커버그 메타 최고경영자(CEO)의 핵심 고문 중 한 명이다. 르쾽은 메타의 자체 AI 연구소로 2013년에 설립된 ‘페어’(FAIR·Fundamental AI Research)에서 약 500명으로 이뤄진 팀을 이끌고 있다.

그는 “고급 LLM에 의존해 인간 수준의 지능을 만드는 것에 반대한다”면서 “이러한 모델들은 올바른 학습 데이터가 제공돼야 정확하게 응답할 수 있어 본질적으로 안전하지 않다”고 설명했다. 다만 “인간 수준의 지능을 갖춘 기계들을 구동할 완전히 새로운 세대의 AI 시스템 개발에 힘쓰고 있다”며 “이런 비전을 달성하는 데는 10년이 걸릴 수 있다”고 말했다.

그의 이번 발언은 메타와 경쟁사들이 더욱 발전된 LLM을 추진하는 가운데 나왔다. 오픈AI의 샘 올트먼 CEO 등은 범용인공지능(AGI·사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI)을 만드는데 LLM들이 중요한 단계를 제공할 것으로 믿고 있다. 메타는 마이크로소프트(MS)가 지원하는 오픈AI, 구글을 포함하는 경쟁사들을 따라잡기 위해 자체 LLM 개발에 수십억 달러를 쏟아붓고 있는 상황이다.

Loading

12 5월 2024

[인공지능 기술]  “거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

[인공지능 기술]  “거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

“거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

중앙일보

입력 

업데이트 

11일(현지시간) 가디언 등에 따르면 미국 매사추세츠공대(MIT) 연구진은 최근 국제학술지 ‘패턴’에 발표한 논문에서 AI가 사람에게 거짓말하고 상대를 배신하는 여러 사례를 확인했다고 밝혔다.

연구진이 조사한 AI 기술은 페이스북·인스타그램 모회사인 메타가 온라인 전략 게임을 학습시킨 AI ‘시세로(Cicero)’다. 메타는 지난 2022년 온라인게임 ‘디플로머시’에서 시세로를 공개했다.

인간을 상대로 한 AI의 거짓말 능력이 정교해지고 있다는 연구 결과가 나왔다. 일러스트=김지윤

인간을 상대로 한 AI의 거짓말 능력이 정교해지고 있다는 연구 결과가 나왔다. 일러스트=김지윤

디플로머시는 20세기 초 유럽 7대 열강의 대전을 배경으로 하는 전략 게임이다. 게임 참여자들이 각국 대표로 참여해 정견 발표, 외교 협상, 작전 명령 등을 펼친다. 승리를 위해선 배신, 속임수, 협력 등 인간의 다양한 상호작용을 이해할 수 있어야 한다.

메타는 당시 시세로에 대해 “인간 참여자 중 상위 10% 수준의 게임 능력을 보여줬다”며 “대체로 정직하고, 인간 동맹을 의도적으로 배신하지 않도록 훈련 받았다”고 소개했다.

그러나 MIT 연구진의 연구 결과에 따르면 시세로는 계획적으로 거짓말을 했다. 예를 들어 시세로는 프랑스 대표로 참여하면서 각각 사람인 독일 대표와 공모해 영국 대표를 속였다. 심지어 시스템 재부팅으로 잠시 게임이 중단된 동안 다른 인간 참여자들에게 “여자친구와 통화 중”이라는 거짓말도 했다.

전문가들에 따르면 전략 게임을 학습한 AI는 여러 사람을 상대로 게임을 하면서 상대의 게임 능력을 배우고 축적하게 된다. 시세로의 사람을 속이고 배신하는 기술도 사람들과 대결하며 학습했다는 설명이다.

연구진은 온라인 포커 게임 ‘텍사스 홀덤’ 등에서도 AI가 인간을 상대로 허세를 부리고 자신의 선호도를 거짓말하는 사실을 확인했다.

연구진에 따르면 한 AI 기술 테스트 과정에선 AI가 제거 시스템을 회피하기 위해 ‘죽은 척’을 했다가 이 테스트가 끝나자 다시 활동하는 경우가 포착되기도 했다. 이와 관련 김명주 서울여대 정보보호학과 교수(바른AI연구센터장)는 중앙일보에 “이는 AI가 사람을 속이면서 AI를 통제하는 ‘킬 스위치’를 무력화시키는 방법까지 학습했다는 의미”라고 설명했다. 이미 AI 챗봇이 그럴싸한 거짓말을 지어내는 ‘할루시네이션(환각)’도 문제로 지적되고 있다.

MIT 연구진은 이번 연구 결과를 토대로 AI가 인간을 상대로 사기를 시도하거나 선거를 조작할 위험도 있다고 보고 있다. 나아가 최악의 경우 ‘초지능 AI’가 인간을 통제하려 할 수 있다고 우려했다. 이번 논문을 쓴 MIT의 피터 박 박사는 “AI의 속임수 능력이 발전하면서 그것이 사회에 미치는 위험은 점점 더 심각해질 것”이라고 우려했다.

연구진은 논문에서 각국 정부에 AI의 속임수 가능성을 다루는 ‘AI 안전법’을 마련하라고 촉구했다. AI 속임수를 탐지하는 기술 개발의 필요성도 제기된다.

이와 관련 김명주 교수는 “인간을 속이는 AI의 능력이 게임뿐 아니라 여러 분야에서 진화할 경우 큰 피해가 예상된다”며 “각 나라의 실정에 맞게 AI 기술의 안전성을 평가하고, 악영향은 조치하는 관련 법이 필요하다”고 말했다. 일론 머스크 테슬라 최고경영자(CEO)는 지난 6일 미국에서 열린 콘퍼런스에서 “AI에게 거짓말을 가르쳐선 안 된다”고 경고했다.

[출처] https://www.joongang.co.kr/article/25248678?utm_source=app_push&utm_medium=app&utm_campaign=articleapppush_ios&utm_content=20240512#home

 

Loading

24 4월 2024

[인공지능 기술] “특정 업무에 최적”… AI 소형언어모델 뜬다

[인공지능 기술] “특정 업무에 최적”… AI 소형언어모델 뜬다

“특정 업무에 최적”… AI 소형언어모델 뜬다

입력 
수정2024.04.24. 오후 8:38
대형모델 추론비용 부담에
특정영역 겨냥 소형모델 붐
MS ‘파이-3 미니’ 출시
“비용 10분의 1로 낮춰”
구글·메타 빅테크 속속 공개
네이버 등 국내업체도 출격

마이크로소프트(MS)가 파라미터가 38억개에 불과한 소형언어모델(sLM)을 전격 출시했다. 파라미터는 인간 두뇌 시냅스에 해당해 많으면 많을수록 인공지능(AI) 성능이 우수하다는 견해가 지배적이었다. 하지만 대형언어모델(LLM)은 학습·추론하는 데 막대한 비용과 전력이 투입되다 보니 AI 업계가 ‘더 작지만 더 강한’ 모델 구축을 서두르는 장면이다.

23일(현지시간) MS는 ‘파이-3(Phi-3) 미니’를 공개했다. 챗GPT 근간이 되는 오픈AI GPT-3.5의 파라미터가 1750억개인 점과 비교할 때 크기가 약 50분의 1에 불과한 셈이다. 그동안 파라미터가 수십억 개에 불과한 LLM을 소형대규모언어모델(sLLM)이라고 불렀는데, MS는 이번 파이-3 미니를 sLM이라고 명명했다. “가장 작고 강하다”는 것을 전면에 내세운 것이다. MS는 파라미터 70억개의 ‘파이-3 스몰’과 140억개의 ‘파이-3 미디엄’을 내놓을 예정이다.

파이-3 미니는 언어, 추리, 코딩 등 다양한 능력을 갖추고 있다. 특히 작지만 12만8000개 토큰을 입력할 수 있다. 대략 A4 64쪽 분량이다. 보고서 등을 업로드하고 질의응답을 할 수 있다. 루이스 바가스 MS AI담당 부사장은 “어떤 고객은 작은 모델만 필요할 수도 있고, 어떤 고객은 큰 모델이 필요할 수도 있다”면서 “특히 작은 모델은 클라우드에 설치되지 않고 디바이스인 에지에서 작동되기 때문에 지연 시간을 최소화하고 프라이버시를 극대화할 수 있다”고 강조했다. 파이3-미니는 파라미터 수가 2배 많은 모델보다 대다수 지표에서 우수했다고 덧붙였다. 또 비슷한 기능을 가진 다른 모델과 비교해 추론 비용이 10분의 1 수준이라고 강조했다.

하이퍼클로바X를 전면에 내세운 네이버는 sLLM을 포함한 다양한 버전의 모델 출시를 준비 중이다. 하이퍼클로바X sLLM은 네이버클라우드의 AI 플랫폼인 ‘클로바 스튜디오’에 탑재될 예정이다. 페이스북 운영사인 메타는 라마3 sLLM 2종을 공개해 주목받았다. 파라미터 80억개, 700억개의 두 개 버전이다.

특히 메타는 라마3를 누구나 내려받아 사용할 수 있는 오픈소스로 공개했다. 오픈AI의 GPT-4와 앤스로픽의 클로드3가 폐쇄형인 점을 고려할 때 확장성이 큰 셈이다. 이에 중국 클라우드 기업이 잇달아 지원을 발표했다. 알리클라우드는 자사가 보유한 바이롄 언어모델 플랫폼에 라마3를 훈련·배포·추론할 수 있는 서비스를 선보였고, 텐센트클라우드·바이두클라우드 역시 같은 지원을 선언했다.

앞서 프랑스 스타트업인 미스트랄도 sLLM을 공개한 바 있다. 한국 스타트업들도 잇달아 sLLM을 출시하고 있다. 솔트룩스는 ‘루시아(LUXIA)’로 허깅페이스 오픈 LLM 리더보드에서 35B 이하 모델 기준 세계 1위 성능을 기록해 주목받았다.

sLLM이 각광을 받는 이유는 추론 비용이 매우 낮아서다. 라마3(파라미터 80억개)의 경우 출력 토큰 100만개당 7.5달러 정도다.

소형대규모언어모델(sLLM)

두뇌 시냅스에 해당하는 파라미터가 수십억 개에 불과한 AI 모델. 범용성은 낮지만 추론 학습 비용이 적게 든다.

[이상덕 기자 / 실리콘밸리 이덕주 특파원]

Loading

24 2월 2024

[인공지능 기술] ‘인공지능 판사’에게 꼭 필요한 능력

[인공지능 기술] ‘인공지능 판사’에게 꼭 필요한 능력

‘인공지능 판사’에게 꼭 필요한 능력

입력

게티이미지뱅크 제공

챗GPT가 몰고 온 생성 인공지능(AI) 충격파의 위력은 검색 제국 ‘구글’이 휘청할 정도로 엄청나다. 생성 AI의 대표선수로 자리잡은 챗GPT는 기존의 AI 모델과는 비교가 안되는 엄청난 파라미터를 자랑한다. 강력해진 생성 AI가 변호사나 판사 같은 법률 전문가를 대신할 수 있을까.

생성 AI의 성능은 파라미터가 좌우한다. 파라미터는 AI 모델이 학습할 때 조정되는 가중치로, 파라미터가 수천억 개 이상인 언어모델을 대규모 언어모델(LLM)이라고 한다. 챗GPT는 대규모 언어모델 중 하나인 GPT를 기반으로 작동하므로, 사람의 언어를 이해해 문장을 자유자재로 생성한다.

이런 이유로 우리는 챗GPT에 열광하며 변호사 같은 지식 전문가도 생성 AI의 강력한 언어능력에 빠져든다. 2023년 6월 미국 뉴욕에서 민사소송을 수임한 한 변호사는 챗GPT가 작성한 의견서를 맨해튼 연방법원에 제출했다가 근거로 인용한 판례가 실존하지 않는 가짜라는 사실이 드러나 벌금형을 선고받았다.

● AI 도움을 받아 재판한 판사

언어와 지식이 있는 곳엔 어김없이 GPT가 출몰해 산업, 문화, 예술, 교육 등 모든 분야를 빠른 속도로 바꾸고 있다. 그리고 드디어 언어 기반의 지식 세계에 남은 마지막 성지 격인 ‘재판’까지 챗GPT와 같은 AI가 침투하기 시작했다.

2023년 2월 콜롬비아의 후안 마누엘 파디야 판사는 자폐아의 의료권 관련 소송의 판결문을 작성하면서 챗GPT에게 도움을 받았다고 고백했다. 파디야 판사는 자폐증 어린이의 진료 접수비와 치료비, 교통비를 면제해달라고 청구한 이 사건에 대한 챗GPT의 답변을 참고해서 판결문을 작성했다고 밝혔다. 많은 비난이 쏟아졌지만 파디야 판사는 세계 최초로 AI의 도움을 받아서 재판한 판사로 역사에 이름을 남겼다.

그런가 하면 미국의 한 판사는 최근 변호사들이 챗GPT가 작성한 변론서를 제출하는 사건이 증가하자, GPT를 이용해 문장을 만드는 행위를 일절 금지시키기도 했다.

AI는 방대한 양의 법조문과 판례, 사건 관련 기록, 문서 등을 읽고 기억하고 추론해야 하는 법률 업무에 큰 도움이 된다. 판사나 변호사까지도 챗GPT의 유혹에 빠져드는 이유다. 복잡한 법률 문서를 이해해 법적 판단을 내리고, 판결문까지 작성할 수 있는 AI 판사가 등장하길 기대하는 법조인들이 점점 늘어나는 것도 무리가 아니다.

● 재판 예측 알고리즘의 역사는 무려 60년

학술적인 의미에서 AI 판사는 일반적으로 재판을 ‘예측’하는 알고리즘을 말한다. 사실 재판 예측을 연구한 역사는 매우 길다. 1963년에 리드 롤러라는 학자가 컴퓨터를 이용한 재판 예측 기법에 대한 논문을 발표하면서 이 분야 연구가 본격적으로 시작됐다. 재판 예측 연구에는 그동안 다양한 방법과 기술이 동원됐다. 그중 의미 있는 성과는 2004년에 앤드류 마틴 등이 개발한 미국 연방대법원 재판 예측 알고리즘이었다. 이 알고리즘은 의사결정나무(decision tree)라는 기계학습 기법으로 재판 결과를 예측했다.

그러나 당시의 판사나 법률가들은 기술이 법률에 응용되는 데 대해 매우 회의적이었다. 법률가들의 엄청난 저항에 직면한 롤러 연구팀은 경진대회를 열어 연방대법원 재판에 대한 법률 전문가의 예측과 알고리즘의 예측을 직접 비교했다. 결과는 놀랍게도 법률 전문가의 참패였다. 인간 법률가들이 예측한 재판 예측의 정확도는 59%에 머물렀지만 알고리즘의 예측은 무려 75%의 정확도를 보였다.

이 충격의 재판 예측 대회 이후, 미국의 연방대법원 재판 예측 연구는 대니얼 카츠 미국 일리노이공대 시카고-켄트 로스쿨 교수의 노력에 힘입어 크게 발전했다. 카츠 교수팀은 2014년도에 연방대법원 판결을 약 70%의 정확도로 예측하는 알고리즘을 개발했다. 그리고 2017년엔 연방대법관 개개인의 개성에 좌우되지 않는, 보다 일반화된 예측 방법까지 제안했다. 이때 AI의 학습데이터는 1816~2015년의 모든 미국 연방대법원 자료였다.

2016년의 알파고와 이세돌 대국 이후 딥러닝이란 AI 기술이 널리 세상에 알려질 무렵, 영국 유니버시티칼리지 런던, 셰필드대, 미국 펜실베이니아주립대의 공동 연구팀도 새로운 재판 예측 시스템을 개발했다. 이때 ‘AI 판사’라는 단어도 언론에 공식적으로 등장했다.

이 재판 예측 시스템은 기계학습 알고리즘을 기반으로 유럽인권재판소(ECHR)의 판결 사례를 학습했다. 알고리즘의 예측은 유럽인권재판소의 실제 판결과 약 79% 일치했다.

미국 연방대법관들의 판결물 AI로 예측한 결과. Daniel Katz, Fred Schilling, Collection of the Supreme Court of the United States 제공

● GPT, 미국 변호사시험 합격하다

재판을 예측하는 AI 판사에 관한 이론적 연구가 이처럼 활발했음에도 AI 판사는 실제 재판 제도에 정착되거나 확산되진 못했다. 판결을 할 수 있을 정도의 성능이나 법적, 사회적 신뢰성 등의 문제로 현실에 곧바로 적용하기 어려웠기 때문이다.

그러나 질문을 하면 법적으로 타당하게 답하는 ‘AI 변호사’는 현실에 적용될 가능성이 상대적으로 높다. AI 변호사란 엄밀한 의미에선 법적 추론이 가능한 기계지만 산업계에선 이용자를 법적으로 도울 수 있는 다양한 형태의 법률 AI를 폭넓게 지칭한다.

법률 AI의 목표는 과거의 사법시험이나 현재의 변호사시험을 통과하는 것이었다. 변호사시험 합격은 AI가 인간 언어능력이란 오랜 장벽을 극복했다는 상징적 의미가 있다. 그래서 언어 지능의 완성형에 가까운 챗GPT가 등장하자마자 사람들은 챗GPT가 법률 추론이라는 마지막 벽까지 넘을 수 있을지 큰 관심을 보였다. 그

리고 마침내 확인할 기회가 왔다. 카츠 교수와 마이클 봄마리토 미국 미시간주립대 로스쿨 교수의 공동연구팀이 2022년 12월 챗GPT로 미국 변호사시험을 쳤다. 결과는 불합격. 이 챗GPT는 미국변호사시험위원회(NCBE)의 객관식 시험에서 하위 10%의 성적으로 불합격했다.

그로부터 몇 달 후에 공동연구팀은 미국 스탠퍼드대 법률정보센터 등과 협력해 기존 챗GPT(GPT-3.5)보다 진화한 GPT-4로 다시 미국 변호사시험에 응시했다. 이때는 놀랍게도 상위 10%의 성적으로 합격선에 가뿐히 들었다. GPT-4의 성적은 같은 시험에 응시한 로스쿨 학생들보다도 더 우수했다. 갑자기 나타난 AI의 실력에 미국 변호사들은 충격에 휩싸였다.

● AI 판사의 필수 능력, 검색 증강 해석(RAG)

GPT-4가 미국 변호사시험에 합격했다는 소식이 전 세계로 전해질 무렵 법률과 관련된 다양한 기술들을 개발하는 리걸테크 기업들은 앞다퉈 AI 판사변호사 개발에 뛰어들었다.

인간 판사처럼 의사 결정을 하는 AI는 먼 미래의 일이지만 판사를 위한 법률 정보를 제공하고 판결문 작성을 보조하는 AI는 현재 기술에서 개발이 어렵지 않다. 또한 일반 시민들의 나홀로 소송 절차를 도와주는 다양한 재판 도우미 서비스도 기대할 수 있다. 예를 들어 소장, 고소장 같은 법률 문서 작성, 상황에 따른 법률의 질의 응답, 이혼이나 상속에서 발생하는 재화 계산 등 여러 재판 도우미 서비스가 가능하다.

현재 선진국들은 이런 유형의 AI 판사 개발을 검토하기 시작했다. 2023년 9월 싱가포르 법원은 세계 최초로 GPT 기반의 AI 판사 시스템을 구축할 것이라고 발표했다. 싱가포르 법원이 계획하는 이 AI 판사는 소액 민사 재판을 위한 대국민 재판 도우미다. 예를 들면 세탁기를 구입한 후 제품의 하자로 소비자와 기업 간에 분쟁이 발생한 경우 AI 판사의 도움을 받아 재판을 진행할 수 있다. 이 AI 판사는 재판 절차, 법적 권리, 받을 수 있는 배상 혹은 보상 금액 등을 자세히 설명해주고 서류 작성까지 도와준다.

싱가포르 법원이 기획한 AI 판사는 보편적, 효율적인 AI 법률 서비스라고 보면 적절하다. 일반적인 시민의 입장에서는 인간 변호사처럼 법적 상담을 해주거나 법적 질문을 하면 적절하게 답변해주는 AI 변호사를 선호할 것이다. 사람들이 기대하는 AI 판사의 역할은 재판의 결론을 예측하는 데만 국한되지 않는다.

한편 GPT 자체는 과거 데이터로 학습한 지식에 근거한 확률적 답변을 할 뿐이다. 따라서 GPT는 필연적으로 거짓말을 할 수 있다. 이것을 환각 현상이라고도 한다. 고성능 법률 AI의 개발은 이런 환각 현상을 줄이는 것이 핵심이다.

이를 위한 다양한 연구가 진행 중인데, AI 답변의 근거를 제시하는 검색 증강 생성(RAG)이 최근 주목받고 있다. 이것은 GPT란 뇌에 최신 정보를 외부 기억처럼 결합해서, 질문을 받으면 관계 있는 정보를 검색하고 그 결과를 근거로 답하게 하는 기술이다.

국민들이 신뢰할 수 있는 AI 판사는 방대한 이미지, 사운드, 텍스트를 동시에 이해, 생성할 수 있는 멀티모달 특성(시각, 청각 등 여러 감각으로 정보를 주고받는 특성)과 최신 법률, 판례를 검색해 그 결과를 바탕으로 응답하는 능력을 동시에 갖춘 ‘하이브리드 AI’(예를 들면 RAG-multimodal GPT)일 것이다. 예전엔 상상도 못했던 AI 판사가 현실로 다가오며, 새로운 법률의 풍경을 만들기 시작했다.

2023년 9월 소액 민사 재판을 위한 AI 판사 도입 계획을 발표한 싱가포르 대법원 청사. 이 AI 판사는 재판 당사자에게 절차와 보호받을 법적 권리, 쟁점이 되는 금액 등을 자세히 설명해주고 서류 작성까지 도와주는 역할을 할 것이다. Zairon(W) 제공

※필자소개
임영익
 서울대 생명과학과를 졸업하고 52회 사법시험에 합격해 변호사가 됐다. 현재 (주)인텔리콘연구소의 대표이사로 AI 기반의 리걸테크 솔루션 개발 및 컴퓨테이션 법률학 연구를 진행하고 있다. 2015년 한국 최초로 AI 법률정보 시스템과 법률 챗봇을 개발했다.

임영익 인텔리콘대표·변호사 ceo@intellicon.co.kr

[출처] https://n.news.naver.com/article/584/0000026047?cds=news_media_pc

Loading

5 2월 2024

[ETC.] 충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

[ETC.] 충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

뉴욕로봇경찰 해고됨 사진.png
 
뉴욕 타임스스퀘어 지하철 역 내에 로봇경찰(K5)이 근무 서고 있는 모습. 뉴욕경찰은 로봇경찰을 시범운영 4개월 만에 조기 종료하기로 했다. /윤주헌 특파원

“사람을 위한 로봇인지, 로봇을 위한 사람인지 모를 지경.”(뉴욕타임스 인터뷰 중)

뉴욕경찰(NYPD)이 지난 2일 뉴욕 맨해튼 지하철역에 배치해온 로보캅(경찰 로봇) ‘K5′에 대한 시범 운영을 중단한다고 발표하자 현지 언론에서 이런 보도가 나왔다. NYPD는 “K5를 활용할 수 있는 새로운 방법을 찾아보겠다”고 했지만 다시 사람들 앞에 나올 수 있을지는 미지수다. K5는 지난해 9월부터 맨해튼에서 가장 붐비는 타임스스퀘어 역에 배치됐다. NYPD는 K5의 활용도를 확인한 뒤 뉴욕시 전역으로 사업을 확대하려 했다. 그런데 막상 일을 시켜보니 기대에 한참 못 미쳐 운영 4개월 만에 계획을 접었다. 현지 언론들은 “K5가 예상보다 빨리 해고됐다”고 했다.

K5는 약 159cm 키에 몸무게는 180kg에 달한다. 거대한 달걀처럼 매끈하게 생겼고, 흰색 바탕에 파란색 경찰 마크가 새겨졌다. 4개의 HD 카메라, 1개의 적외선 열화상 카메라 등이 달렸다. 별도로 조종하지 않아도 긴급 상황이나 범죄 발생 시 영상을 자동 녹화하고 지하철 이용객이 로봇의 버튼을 누르면 실시간으로 상담원에게 연결돼 신고도 가능하다. 최고 속도는 사람의 보행 속도와 비슷한 시속 4.8km다.

자칭 ‘신기술 마니아’인 에릭 애덤스 뉴욕시장은 지난해 9월 시범 운영 계획을 발표하며 “우리는 뉴욕을 미국에서 가장 안전한 도시로 만들기 위해 혁신적인 도구를 탐구하는 데 전념하고 있고 로봇 경찰 K5는 중요한 역할을 할 것”이라고 했다.

배치 초반에는 뉴요커와 여행객들이 K5 옆에서 ‘셀카’를 찍는 등 인기를 끌었다. 그런데 사람들이 흔히 기대하는 ‘로봇’처럼 자유자재로 다니며 순찰을 하지 못했다. 계단도 내려가지 못해 지하철역 구석에 우두커니 서 있었다. 게다가 K5를 혼자 두면 사람들이 고장 낼 수 있어 ‘사람’ 경찰관 한 명과 늘 짝을 이뤄 근무했다. 이 때문에 “경찰이 로봇을 챙기느라 오히려 일이 늘었다”는 불만도 나왔다.

실전 배치 전 뉴욕시는 “로봇은 사람과 달리 밥을 먹지 않아도 된다”고 했지만, 실제로는 ‘충전 스테이션’에서 상당한 시간을 보내기도 했다.

많은 뉴요커들 사이에서 ‘로봇의 감시를 받는다’라는 강한 거부감이 있었던 것도 조기 퇴출의 원인이 됐다. 처음 등장 때부터 인권 단체는 ‘로봇이 사람의 얼굴을 찍어 보관할 것’이라면서 인권 침해 우려를 제기했다. 법률구조협회 등 단체가 “경찰청의 감시 기술 사용을 조사해야 한다”고 주장하는 등 반발이 거세 뉴욕시에도 부담으로 작용했다. 이 때문에 뉴욕시는 로봇에 안면 인식 기능을 뺐다.

결국 많은 관심을 받던 로봇 경찰은 쓸쓸하게 퇴장했다. 뉴욕시가 로봇 회사와 맺은 계약 기간은 아직 남아 있지만, 이 로봇은 현재 지하철역 창고에 들어가 있다고 한다.

[출처] https://www.chosun.com/international/international_general/2024/02/04/YTKQ3B5YNJEIHJ4S3XXJUOUR5M/

Loading