24 2월 2024

[인공지능 기술] ‘인공지능 판사’에게 꼭 필요한 능력

[인공지능 기술] ‘인공지능 판사’에게 꼭 필요한 능력

‘인공지능 판사’에게 꼭 필요한 능력

입력

게티이미지뱅크 제공

챗GPT가 몰고 온 생성 인공지능(AI) 충격파의 위력은 검색 제국 ‘구글’이 휘청할 정도로 엄청나다. 생성 AI의 대표선수로 자리잡은 챗GPT는 기존의 AI 모델과는 비교가 안되는 엄청난 파라미터를 자랑한다. 강력해진 생성 AI가 변호사나 판사 같은 법률 전문가를 대신할 수 있을까.

생성 AI의 성능은 파라미터가 좌우한다. 파라미터는 AI 모델이 학습할 때 조정되는 가중치로, 파라미터가 수천억 개 이상인 언어모델을 대규모 언어모델(LLM)이라고 한다. 챗GPT는 대규모 언어모델 중 하나인 GPT를 기반으로 작동하므로, 사람의 언어를 이해해 문장을 자유자재로 생성한다.

이런 이유로 우리는 챗GPT에 열광하며 변호사 같은 지식 전문가도 생성 AI의 강력한 언어능력에 빠져든다. 2023년 6월 미국 뉴욕에서 민사소송을 수임한 한 변호사는 챗GPT가 작성한 의견서를 맨해튼 연방법원에 제출했다가 근거로 인용한 판례가 실존하지 않는 가짜라는 사실이 드러나 벌금형을 선고받았다.

● AI 도움을 받아 재판한 판사

언어와 지식이 있는 곳엔 어김없이 GPT가 출몰해 산업, 문화, 예술, 교육 등 모든 분야를 빠른 속도로 바꾸고 있다. 그리고 드디어 언어 기반의 지식 세계에 남은 마지막 성지 격인 ‘재판’까지 챗GPT와 같은 AI가 침투하기 시작했다.

2023년 2월 콜롬비아의 후안 마누엘 파디야 판사는 자폐아의 의료권 관련 소송의 판결문을 작성하면서 챗GPT에게 도움을 받았다고 고백했다. 파디야 판사는 자폐증 어린이의 진료 접수비와 치료비, 교통비를 면제해달라고 청구한 이 사건에 대한 챗GPT의 답변을 참고해서 판결문을 작성했다고 밝혔다. 많은 비난이 쏟아졌지만 파디야 판사는 세계 최초로 AI의 도움을 받아서 재판한 판사로 역사에 이름을 남겼다.

그런가 하면 미국의 한 판사는 최근 변호사들이 챗GPT가 작성한 변론서를 제출하는 사건이 증가하자, GPT를 이용해 문장을 만드는 행위를 일절 금지시키기도 했다.

AI는 방대한 양의 법조문과 판례, 사건 관련 기록, 문서 등을 읽고 기억하고 추론해야 하는 법률 업무에 큰 도움이 된다. 판사나 변호사까지도 챗GPT의 유혹에 빠져드는 이유다. 복잡한 법률 문서를 이해해 법적 판단을 내리고, 판결문까지 작성할 수 있는 AI 판사가 등장하길 기대하는 법조인들이 점점 늘어나는 것도 무리가 아니다.

● 재판 예측 알고리즘의 역사는 무려 60년

학술적인 의미에서 AI 판사는 일반적으로 재판을 ‘예측’하는 알고리즘을 말한다. 사실 재판 예측을 연구한 역사는 매우 길다. 1963년에 리드 롤러라는 학자가 컴퓨터를 이용한 재판 예측 기법에 대한 논문을 발표하면서 이 분야 연구가 본격적으로 시작됐다. 재판 예측 연구에는 그동안 다양한 방법과 기술이 동원됐다. 그중 의미 있는 성과는 2004년에 앤드류 마틴 등이 개발한 미국 연방대법원 재판 예측 알고리즘이었다. 이 알고리즘은 의사결정나무(decision tree)라는 기계학습 기법으로 재판 결과를 예측했다.

그러나 당시의 판사나 법률가들은 기술이 법률에 응용되는 데 대해 매우 회의적이었다. 법률가들의 엄청난 저항에 직면한 롤러 연구팀은 경진대회를 열어 연방대법원 재판에 대한 법률 전문가의 예측과 알고리즘의 예측을 직접 비교했다. 결과는 놀랍게도 법률 전문가의 참패였다. 인간 법률가들이 예측한 재판 예측의 정확도는 59%에 머물렀지만 알고리즘의 예측은 무려 75%의 정확도를 보였다.

이 충격의 재판 예측 대회 이후, 미국의 연방대법원 재판 예측 연구는 대니얼 카츠 미국 일리노이공대 시카고-켄트 로스쿨 교수의 노력에 힘입어 크게 발전했다. 카츠 교수팀은 2014년도에 연방대법원 판결을 약 70%의 정확도로 예측하는 알고리즘을 개발했다. 그리고 2017년엔 연방대법관 개개인의 개성에 좌우되지 않는, 보다 일반화된 예측 방법까지 제안했다. 이때 AI의 학습데이터는 1816~2015년의 모든 미국 연방대법원 자료였다.

2016년의 알파고와 이세돌 대국 이후 딥러닝이란 AI 기술이 널리 세상에 알려질 무렵, 영국 유니버시티칼리지 런던, 셰필드대, 미국 펜실베이니아주립대의 공동 연구팀도 새로운 재판 예측 시스템을 개발했다. 이때 ‘AI 판사’라는 단어도 언론에 공식적으로 등장했다.

이 재판 예측 시스템은 기계학습 알고리즘을 기반으로 유럽인권재판소(ECHR)의 판결 사례를 학습했다. 알고리즘의 예측은 유럽인권재판소의 실제 판결과 약 79% 일치했다.

미국 연방대법관들의 판결물 AI로 예측한 결과. Daniel Katz, Fred Schilling, Collection of the Supreme Court of the United States 제공

● GPT, 미국 변호사시험 합격하다

재판을 예측하는 AI 판사에 관한 이론적 연구가 이처럼 활발했음에도 AI 판사는 실제 재판 제도에 정착되거나 확산되진 못했다. 판결을 할 수 있을 정도의 성능이나 법적, 사회적 신뢰성 등의 문제로 현실에 곧바로 적용하기 어려웠기 때문이다.

그러나 질문을 하면 법적으로 타당하게 답하는 ‘AI 변호사’는 현실에 적용될 가능성이 상대적으로 높다. AI 변호사란 엄밀한 의미에선 법적 추론이 가능한 기계지만 산업계에선 이용자를 법적으로 도울 수 있는 다양한 형태의 법률 AI를 폭넓게 지칭한다.

법률 AI의 목표는 과거의 사법시험이나 현재의 변호사시험을 통과하는 것이었다. 변호사시험 합격은 AI가 인간 언어능력이란 오랜 장벽을 극복했다는 상징적 의미가 있다. 그래서 언어 지능의 완성형에 가까운 챗GPT가 등장하자마자 사람들은 챗GPT가 법률 추론이라는 마지막 벽까지 넘을 수 있을지 큰 관심을 보였다. 그

리고 마침내 확인할 기회가 왔다. 카츠 교수와 마이클 봄마리토 미국 미시간주립대 로스쿨 교수의 공동연구팀이 2022년 12월 챗GPT로 미국 변호사시험을 쳤다. 결과는 불합격. 이 챗GPT는 미국변호사시험위원회(NCBE)의 객관식 시험에서 하위 10%의 성적으로 불합격했다.

그로부터 몇 달 후에 공동연구팀은 미국 스탠퍼드대 법률정보센터 등과 협력해 기존 챗GPT(GPT-3.5)보다 진화한 GPT-4로 다시 미국 변호사시험에 응시했다. 이때는 놀랍게도 상위 10%의 성적으로 합격선에 가뿐히 들었다. GPT-4의 성적은 같은 시험에 응시한 로스쿨 학생들보다도 더 우수했다. 갑자기 나타난 AI의 실력에 미국 변호사들은 충격에 휩싸였다.

● AI 판사의 필수 능력, 검색 증강 해석(RAG)

GPT-4가 미국 변호사시험에 합격했다는 소식이 전 세계로 전해질 무렵 법률과 관련된 다양한 기술들을 개발하는 리걸테크 기업들은 앞다퉈 AI 판사변호사 개발에 뛰어들었다.

인간 판사처럼 의사 결정을 하는 AI는 먼 미래의 일이지만 판사를 위한 법률 정보를 제공하고 판결문 작성을 보조하는 AI는 현재 기술에서 개발이 어렵지 않다. 또한 일반 시민들의 나홀로 소송 절차를 도와주는 다양한 재판 도우미 서비스도 기대할 수 있다. 예를 들어 소장, 고소장 같은 법률 문서 작성, 상황에 따른 법률의 질의 응답, 이혼이나 상속에서 발생하는 재화 계산 등 여러 재판 도우미 서비스가 가능하다.

현재 선진국들은 이런 유형의 AI 판사 개발을 검토하기 시작했다. 2023년 9월 싱가포르 법원은 세계 최초로 GPT 기반의 AI 판사 시스템을 구축할 것이라고 발표했다. 싱가포르 법원이 계획하는 이 AI 판사는 소액 민사 재판을 위한 대국민 재판 도우미다. 예를 들면 세탁기를 구입한 후 제품의 하자로 소비자와 기업 간에 분쟁이 발생한 경우 AI 판사의 도움을 받아 재판을 진행할 수 있다. 이 AI 판사는 재판 절차, 법적 권리, 받을 수 있는 배상 혹은 보상 금액 등을 자세히 설명해주고 서류 작성까지 도와준다.

싱가포르 법원이 기획한 AI 판사는 보편적, 효율적인 AI 법률 서비스라고 보면 적절하다. 일반적인 시민의 입장에서는 인간 변호사처럼 법적 상담을 해주거나 법적 질문을 하면 적절하게 답변해주는 AI 변호사를 선호할 것이다. 사람들이 기대하는 AI 판사의 역할은 재판의 결론을 예측하는 데만 국한되지 않는다.

한편 GPT 자체는 과거 데이터로 학습한 지식에 근거한 확률적 답변을 할 뿐이다. 따라서 GPT는 필연적으로 거짓말을 할 수 있다. 이것을 환각 현상이라고도 한다. 고성능 법률 AI의 개발은 이런 환각 현상을 줄이는 것이 핵심이다.

이를 위한 다양한 연구가 진행 중인데, AI 답변의 근거를 제시하는 검색 증강 생성(RAG)이 최근 주목받고 있다. 이것은 GPT란 뇌에 최신 정보를 외부 기억처럼 결합해서, 질문을 받으면 관계 있는 정보를 검색하고 그 결과를 근거로 답하게 하는 기술이다.

국민들이 신뢰할 수 있는 AI 판사는 방대한 이미지, 사운드, 텍스트를 동시에 이해, 생성할 수 있는 멀티모달 특성(시각, 청각 등 여러 감각으로 정보를 주고받는 특성)과 최신 법률, 판례를 검색해 그 결과를 바탕으로 응답하는 능력을 동시에 갖춘 ‘하이브리드 AI’(예를 들면 RAG-multimodal GPT)일 것이다. 예전엔 상상도 못했던 AI 판사가 현실로 다가오며, 새로운 법률의 풍경을 만들기 시작했다.

2023년 9월 소액 민사 재판을 위한 AI 판사 도입 계획을 발표한 싱가포르 대법원 청사. 이 AI 판사는 재판 당사자에게 절차와 보호받을 법적 권리, 쟁점이 되는 금액 등을 자세히 설명해주고 서류 작성까지 도와주는 역할을 할 것이다. Zairon(W) 제공

※필자소개
임영익
 서울대 생명과학과를 졸업하고 52회 사법시험에 합격해 변호사가 됐다. 현재 (주)인텔리콘연구소의 대표이사로 AI 기반의 리걸테크 솔루션 개발 및 컴퓨테이션 법률학 연구를 진행하고 있다. 2015년 한국 최초로 AI 법률정보 시스템과 법률 챗봇을 개발했다.

임영익 인텔리콘대표·변호사 ceo@intellicon.co.kr

[출처] https://n.news.naver.com/article/584/0000026047?cds=news_media_pc

Loading

5 2월 2024

[ETC.] 충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

[ETC.] 충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

충전 하세월, 단독근무 불능… 뉴욕 ‘로보캅’ 4개월 만에 해고

뉴욕로봇경찰 해고됨 사진.png
 
뉴욕 타임스스퀘어 지하철 역 내에 로봇경찰(K5)이 근무 서고 있는 모습. 뉴욕경찰은 로봇경찰을 시범운영 4개월 만에 조기 종료하기로 했다. /윤주헌 특파원

“사람을 위한 로봇인지, 로봇을 위한 사람인지 모를 지경.”(뉴욕타임스 인터뷰 중)

뉴욕경찰(NYPD)이 지난 2일 뉴욕 맨해튼 지하철역에 배치해온 로보캅(경찰 로봇) ‘K5′에 대한 시범 운영을 중단한다고 발표하자 현지 언론에서 이런 보도가 나왔다. NYPD는 “K5를 활용할 수 있는 새로운 방법을 찾아보겠다”고 했지만 다시 사람들 앞에 나올 수 있을지는 미지수다. K5는 지난해 9월부터 맨해튼에서 가장 붐비는 타임스스퀘어 역에 배치됐다. NYPD는 K5의 활용도를 확인한 뒤 뉴욕시 전역으로 사업을 확대하려 했다. 그런데 막상 일을 시켜보니 기대에 한참 못 미쳐 운영 4개월 만에 계획을 접었다. 현지 언론들은 “K5가 예상보다 빨리 해고됐다”고 했다.

K5는 약 159cm 키에 몸무게는 180kg에 달한다. 거대한 달걀처럼 매끈하게 생겼고, 흰색 바탕에 파란색 경찰 마크가 새겨졌다. 4개의 HD 카메라, 1개의 적외선 열화상 카메라 등이 달렸다. 별도로 조종하지 않아도 긴급 상황이나 범죄 발생 시 영상을 자동 녹화하고 지하철 이용객이 로봇의 버튼을 누르면 실시간으로 상담원에게 연결돼 신고도 가능하다. 최고 속도는 사람의 보행 속도와 비슷한 시속 4.8km다.

자칭 ‘신기술 마니아’인 에릭 애덤스 뉴욕시장은 지난해 9월 시범 운영 계획을 발표하며 “우리는 뉴욕을 미국에서 가장 안전한 도시로 만들기 위해 혁신적인 도구를 탐구하는 데 전념하고 있고 로봇 경찰 K5는 중요한 역할을 할 것”이라고 했다.

배치 초반에는 뉴요커와 여행객들이 K5 옆에서 ‘셀카’를 찍는 등 인기를 끌었다. 그런데 사람들이 흔히 기대하는 ‘로봇’처럼 자유자재로 다니며 순찰을 하지 못했다. 계단도 내려가지 못해 지하철역 구석에 우두커니 서 있었다. 게다가 K5를 혼자 두면 사람들이 고장 낼 수 있어 ‘사람’ 경찰관 한 명과 늘 짝을 이뤄 근무했다. 이 때문에 “경찰이 로봇을 챙기느라 오히려 일이 늘었다”는 불만도 나왔다.

실전 배치 전 뉴욕시는 “로봇은 사람과 달리 밥을 먹지 않아도 된다”고 했지만, 실제로는 ‘충전 스테이션’에서 상당한 시간을 보내기도 했다.

많은 뉴요커들 사이에서 ‘로봇의 감시를 받는다’라는 강한 거부감이 있었던 것도 조기 퇴출의 원인이 됐다. 처음 등장 때부터 인권 단체는 ‘로봇이 사람의 얼굴을 찍어 보관할 것’이라면서 인권 침해 우려를 제기했다. 법률구조협회 등 단체가 “경찰청의 감시 기술 사용을 조사해야 한다”고 주장하는 등 반발이 거세 뉴욕시에도 부담으로 작용했다. 이 때문에 뉴욕시는 로봇에 안면 인식 기능을 뺐다.

결국 많은 관심을 받던 로봇 경찰은 쓸쓸하게 퇴장했다. 뉴욕시가 로봇 회사와 맺은 계약 기간은 아직 남아 있지만, 이 로봇은 현재 지하철역 창고에 들어가 있다고 한다.

[출처] https://www.chosun.com/international/international_general/2024/02/04/YTKQ3B5YNJEIHJ4S3XXJUOUR5M/

Loading

12 1월 2024

[IT 혁신 디바이스][소프트웨어] WebAssembly에 대한 2024년 예상 

[IT 혁신 디바이스][소프트웨어] WebAssembly에 대한 2024년 예상 

WebAssembly에 대한 2024년 예상

(thenewstack.io)

15P by xguru 3일전 | favorite | 댓글 2개

  • 2023년을 WebAssembly(Wasm)의 해로 예상했으며, 이는 여러 표준의 진전과 다양한 언어의 지원 확대로 실현됨

  • Python과 Ruby는 Wasm 지원을 포함시켰고, 공식 Go 프로젝트도 Wasm 및 WebAssembly System Interface(WASI)를 지원할 예정

  • 첫 Wasm I/O 컨퍼런스와 WasmCon이 개최되었으며, GlueCon과 DockerCon에서도 WebAssembly 트랙이 마련됨

  • Suborbital이 F5에 인수되고 Adobe가 Figma를 인수하려 했으나 규제로 인해 실패한 사건은 Wasm을 선도하는 기업들의 시장 가치를 입증함

1. Wasm은 AI의 완벽한 파트너

  • Wasm의 플랫폼 중립성, 빠른 시작 시간, 이식성 및 작은 바이너리 크기는 AI 애플리케이션에 이상적임

  • 2024년 AI의 주요 테마 중 하나는 효율성이며, Wasm은 이 분야에서 큰 이점을 제공할 것

2. 세 가지 주요 표준이 완성됨

  • Wasm은 W3C의 감독하에 표준화되었으며, 핵심 Wasm 표준은 몇 년 전에 완성됨

  • WASI, 메모리 관리, 컴포넌트 모델 등 세 가지 추가 표준이 Wasm의 성공에 중요함

  • 2023년에 이 표준들은 큰 발전을 이루었으며, 2024년에는 모두 완성될 것으로 예상됨

3. Wasm의 본거지는 서버 사이드

  • Wasm은 원래 브라우저에서 실행되도록 작성되었지만, 현재는 서버 사이드에서 더 많은 동력을 얻고 있음

  • 서버리스 함수가 강점으로 부상했으며, 이는 확실히 성장하고 있음

  • Wasm은 Kubernetes 생태계에서 중요한 진전을 이룰 것으로 예상되며, 효율성, 확장성, 비용이 중요한 곳에서 등장할 것

4. 클라이언트/서버 양쪽에서 Wasm에 의한 점진적 개선

  • 웹 개발 프레임워크의 부상으로 클라이언트 측, 서버 측 또는 둘 다에서 선택적으로 실행할 수 있는 애플리케이션이 등장

  • 이러한 애플리케이션은 클라이언트 측 렌더링(CSR)과 서버 측 렌더링(SSR)으로 구축될 수 있으며, 일부 프레임워크는 이미 Wasm을 활용하고 있음

  • 2024년에는 이러한 프로젝트가 더 많이 등장할 것이며, Wasm의 강점인 어디에서나 실행 가능한 바이너리 형식을 더욱 활용할 것으로 보임

[출처] https://news.hada.io/topic?id=12766

Loading

12 1월 2024

[인공지능 기술][chatGPT] 20달러만 내면…등산·수학 수업·논문 ‘나만의 AI’ 가질 수 있다 앱처럼 사고 파는 ‘GPT 스토어’ 오픈

[인공지능 기술][chatGPT] 20달러만 내면…등산·수학 수업·논문 ‘나만의 AI’ 가질 수 있다

앱처럼 사고 파는 ‘GPT 스토어’ 오픈

 
오픈AI의 이미지 생성 인공지능 ‘달리(Dall·E)’가 만들어낸 GPT 스토어의 모습.
 
오픈AI의 이미지 생성 인공지능 ‘달리(Dall·E)’가 만들어낸 GPT 스토어의 모습.

10일(현지 시각) 오픈AI가 GPT 스토어를 연 것은 AI 혁명의 기폭제가 될 만한 사건으로 받아들여진다. 누구나 맞춤형 챗GPT를 만들어 사용하고, 스토어에서 사고팔 수 있게 되면서 거대한 AI 생태계가 형성될 수 있기 때문이다. 특히 많은 사람들에게 필요한 맞춤형 챗GPT를 개발한 사람은 오픈AI에서 이익을 배분받으며 AI 시대의 유니콘(기업 가치 10억달러 이상 스타트업)이 될 수도 있다. GPT 스토어가 개발자를 모으고, 이를 활용하기 위해 세계인이 GPT 스토어를 찾는 선순환 구조가 만들어질 수 있다는 것이다.

오픈AI가 GPT 스토어를 열면서 구글과 마이크로소프트 같은 빅테크들도 AI 장터에 뛰어들 가능성이 높아졌다. 모바일 앱 장터는 초창기에 진출한 애플과 구글이 양분하고 있다. 이들은 앱 장터 거래 수수료로만 연간 수십조원을 챙기고 있지만, 후발 주자들은 대부분 사라졌고 남아 있는 일부도 존재감이 미미하다. AI 장터 시장 역시 주도권을 쥐기 위해서는 발 빠르게 움직여야 한다는 것이다.

그래픽=이철원
그래픽=이철원

◇맞춤형 챗GPT 300만개 넘어서

10일 GPT 유료 버전에 접속하면 왼쪽 상단에는 ‘탐색(Explore) GPTs’라는 버튼이 생겼다. 이 버튼을 누르면 GPTs를 검색할 수 있는 검색창과 ‘글쓰기’, ‘생산성 향상’, ‘프로그래밍’, ‘라이프스타일’, ‘교육’ 등의 분야별 추천 맞춤형 챗GPT 추천창이 뜬다. 예컨대 전문가처럼 그래픽 디자인을 할 수 있도록 돕는 ‘캔바’, 산책이나 등산 코스를 추천해주는 ‘올트레일스’, 코딩 교육을 대화하면서 배우는 ‘코드 튜터’, 중고생에게 과학과 수학을 가르치는 ‘CK-12′ 같은 맞춤형 챗GPT들이 있다. 온라인상의 논문을 검색해 분석까지 해주는 ‘컨센서스’처럼 전문가를 위한 챗GPT도 있다.

더 이상 오픈AI가 운영하는 하나의 AI 챗봇 챗GPT가 아니라 챗GPT를 기반으로 만들어진 앱, ‘GPT들(GPTs)’이 넘쳐나고 있는 것이다. 이 같은 맞춤형 챗GPT는 이미 300만개 넘게 만들어졌다. 제작자가 올린 맞춤형 챗GPT가 오픈AI의 사전 검수를 통과해야 등록된다는 것을 감안하면 엄청난 수치이다.

오픈AI는 작년 11월, 누구나 맞춤형 챗GPT를 만들 수 있는 기능을 열었다. 이런 빠른 확산이 가능했던 이유는 코딩을 전혀 모르는 사람도 안내에 따라 버튼 몇 번만 누르면 원하는 챗GPT를 만들 수 있기 때문이다. 애플·구글의 앱은 컴퓨터 언어를 전문적으로 해야만 앱을 만들 수 있었지만, GPTs는 챗GPT와 일상 언어로 대화를 나누는 방식으로 제작한다. ‘GPTs 만들기’를 누르면 챗GPT가 ‘어떤 목적으로 맞춤형 AI를 만드나요?’ ‘학습할 데이터를 업로드해주세요’ 등 말을 하고 사용자는 이에 대답을 하거나 자료를 AI에 입력하면 된다. 오픈AI는 “유료 챗GPT 사용자, 기업 고객들에게 먼저 서비스를 제공하겠다”고 밝혔다. 현재는 20달러를 내는 유료 고객만 이용할 수 있지만, 앞으로는 무료 이용자 등으로 확대할 수도 있다는 것이다.

그래픽=이철원
그래픽=이철원

◇오픈AI, 제작자들과 수익 배분

오픈AI는 조만간 유료·기업 사용자를 통해 얻은 수익을 맞춤형 챗GPT를 만든 제작자들과 분배하는 가이드라인을 공개할 계획이다. 챗GPT 사용량에 따라 유료 고객들이 낸 사용료를 배분해주는 방식이 유력한 것으로 알려졌다. 애플과 구글의 앱 장터에 앱을 올린 기업들이 수익을 내며 성장한 것처럼, 누구나 AI를 만들어 돈을 벌 수 있도록 하겠다는 것이다. 조대곤 KAIST 경영대학 교수는 “앱 장터의 등장으로 수많은 스타트업과 게임 회사, 인터넷 업체 등이 생겨나고 이들 중 상당수가 막대한 부를 거머쥐었다”면서 “이런 동기부여가 AI 혁명을 가속하는 원동력이 될 것”이라고 했다.

당초 오픈AI는 지난해 11월 GPT 스토어를 열 계획이었다. 하지만 스토어 오픈을 앞두고 오픈AI 이사회가 샘 올트먼 최고경영자(CEO)를 해고하고, 이에 직원들이 반발해 올트먼이 복귀하는 등 내홍을 겪으면서 출시가 다소 지연됐다. 테크 업계에서는 오픈AI가 GPT 스토어를 시작으로 여러 수익 사업을 시작할 것으로 본다.

[출처] https://www.chosun.com/economy/tech_it/2024/01/11/TJF3QTH2NBGVPE2R34H2KTERFU/

Loading

4 1월 2024

[時事] “잘못하다간 야후·노키아처럼 사라진다”…’AI 전쟁’ 시작

[時事] “잘못하다간 야후·노키아처럼 사라진다”…’AI 전쟁’ 시작

“잘못하다간 야후·노키아처럼 사라진다”…’AI 전쟁’ 시작

입력 
수정2024.01.03. 오후 8:53
디지털 휴이넘이 온다
(3) 기업 생태계 뒤흔드는 AI

“AI 파도 거스르면 침몰”…산업계 대격변 시작됐다

“인공지능, 선택이 아닌 필수” 산업계 지도 다시 그리는 AI 정보기술(IT) 기업부터 패스트푸드 회사에 이르기까지 산업계의 화두는 인공지능 전환(AIX)이다. AI는 기업의 선택이 아니라 생존 차원의 문제다. 십수 년 전 모바일 혁명과 함께 등장한 빅테크는 헤게모니를 놓지 않기 위해 안간힘이다. 이들의 자리를 차지하기 위한 스타트업의 반격도 거세다. 새로운 시대의 패자는 누가 될 것인가. 이미지 생성형 AI ‘미드저니’에 ‘미래 공장에서 생산을 주도하는 AI’를 그려달라는 프롬프트를 입력했다. 미드저니
역사는 반복된다. 기술 혁명이 일어날 때마다 새로운 스타들이 나타난다. 마이크로소프트, 구글, 애플 등도 변화의 물결을 타고 빅테크로 부상했다. 파도를 거스른 기업은 기억 속으로 사라진다. 한때 시장을 주도한 코닥, 야후, 노키아 등이 그랬다.

인공지능(AI)의 물결은 기업을 두 진영으로 가르고 있다. 흐름에 편승한 기업은 이미 수익을 내기 시작했다. 작년 8월 맥킨지앤드컴퍼니의 조사에 따르면 AI를 도입한 기업 중 63%가 매출 증가 효과를, 32%가 비용 절감 효과를 얻었다. AI와 화학적 결합을 하지 못한 기업도 적지 않다. AI를 업무에 적용했다고 응답한 기업 비율은 2022년 50%로 전년보다 오히려 6%포인트 줄었다. AI 시대가 왔지만, 그 흐름에 올라타는 것은 전혀 다른 문제라는 얘기다.

테크 기업의 주도권 싸움도 치열해지고 있다. 신흥 강자로 떠오른 오픈AI가 AI업계의 터줏대감인 구글과 힘겨루기하고 있다. 앤스로픽, 캐릭터AI, 미드저니, 미스트랄 같은 AI 스타트업도 각자의 강점을 바탕으로 존재감을 키우는 중이다.

국내 AI 스타트업 업스테이지가 자체 개발한 대규모언어모델(LLM) ‘솔라’가 오픈소스 AI 모델의 경연장인 허깅페이스 리더보드에서 최상위권을 기록하는 등 다윗이 골리앗을 꺾은 사례도 심심찮게 등장하고 있다.

전문가들은 생성형 AI로 구현할 수 있는 비즈니스 모델은 상상 이상으로 다양하며, 승자가 누구일지는 점치기 힘들다고 입을 모은다. AI 분야 4대 구루 중 한 명으로 꼽히는 앤드루 응 미국 스탠퍼드대 교수는 한국경제신문과의 인터뷰에서 “LLM부터 휴대폰·노트북에서 구동되는 온디바이스 AI까지 다양한 생태계에서 누구든 주인공이 될 수 있다”고 강조했다.

인공지능은 챗GPT 세상? 소형 AI는 뉴페이스가 앞선다
작지만 강한 ‘sLLM’으로 승부수…”엔비디아 잡자” AI 반도체 각축전

지난해 글로벌 인공지능(AI) 생태계의 최상위 포식자는 오픈AI였다. 전 세계에 챗GPT 열풍을 일으키며 AI 시대 개막을 알렸다. 비영리기관에서 출발한 이 기업 가치는 1000억달러(약 130조원) 선까지 증가했다. 올해에도 오픈AI의 독주가 계속 이어질지는 미지수다. AI와 관련한 비즈니스 모델이 다양한 데다 비슷한 서비스가 우후죽순처럼 쏟아지고 있어서다. 184억달러(약 24조원)의 가치로 자금 조달을 진행 중인 앤스로픽만 하더라도 언제든지 오픈 AI 자리를 위협할 수 있다는 평가를 받는다.

○LLM부터 sLLM까지 각축전

기존 빅테크(대형 정보기술기업)의 반격도 매섭다. 구글과 마이크로소프트(MS), 메타, 아마존 등은 AI 기술을 클라우드에 적용해 기업에 제공하는 방식으로 영토를 확장 중이다. 빅테크가 ‘기술 유통회사’ 전략을 쓰고 있다는 점이 주목할 만하다. 자사 클라우드를 고객이 취향에 따라 다양한 대규모언어모델(LLM)을 고를 수 있게 한 것이다. 오픈AI를 경쟁사가 아니라 클라우드 전위 부대로 활용하고 있는 MS가 대표적인 사례로 꼽힌다.

파라미터(매개변수)가 수천억~1조 개에 달하는 초거대 LLM에 맞선 소규모언어모델(sLLM)도 잠재력이 상당하다. 수백억 개의 파라미터로 구성된 sLLM은 특정 분야에 최적화해 효율적으로 활용할 수 있다는 장점이 있다. 훈련과 운영 비용도 적게 들어간다.

솔라의 파라미터는 107억 개에 불과하다. 파라미터가 1조 개인 오픈AI의 GPT-4와 비교하면 100분의 1 수준이다. sLLM은 프랑스의 미스트랄(79억 개), 영국 스태빌리티AI의 스태이블LM(30억 개), 중국 알리바바의 큐원(140억 개) 등 세계 여러 국가에서 속속 등장하고 있다.

sLLM을 소규모 기업만 만드는 건 아니다. 작년 10월 애플이 미국 컬럼비아대 연구진과 함께 개발해 최근 공개한 생성 AI 패럿은 파라미터가 70억 개, 130억 개 두 종류다. 이보다 앞서 메타가 내놓은 라마2는 70억 개, 130억 개, 700억 개로 구성됐다. 구글이 지난달 공개한 차세대 LLM 제미나이도 18억 개, 32억 개짜리 소형 모델인 ‘제미나이 나노’를 갖추고 있다.

sLLM은 기기 속에서 AI 연산을 처리하는 ‘온디바이스 AI’와 궁합이 맞는다. 데이터센터나 클라우드를 거치지 않아 응답이 빠르고 보안성도 높은 것이 장점이다. 미국 IT 전문 리서치 기업 가트너는 작년 10월 발간한 ‘2024년 10대 전략 기술 보고서’에서 “생성 AI가 손안에 들어오는 에지 AI 기술이 AI산업에서 새로운 화두로 부상할 것”이라고 진단했다.

차상균 서울대 교수(데이터사이언스대학원 초대 원장)는 “얼마나 혁신적이고, 활용도가 높은 기술이냐에 따라 파급효과가 달라질 수 있다”며 “아직 AI산업이 초기 단계인 만큼 후발주자라도 얼마든지 AI 생태계를 재편할 가능성이 있다”고 설명했다.

○AI 반도체도 춘추전국시대

AI 반도체 생태계는 ‘엔비디아 1강 독주체제’에서 각축장으로 변하고 있다. 인텔은 지난달 15일 차세대 AI 반도체인 ‘가우디3’를 공개했다. AI 반도체는 생성형 AI 훈련과 추론을 위한 두뇌 역할을 한다. 이에 앞서 AMD도 지난달 초 새 AI 반도체 MI300X를 내놓으면서 “엔비디아의 H100보다 성능이 뛰어나다”며 테스트 결과를 제시하기도 했다.

엔비디아의 그래픽처리장치(GPU)는 AI 반도체 시장의 90%가량을 점유하고 있다. 여기에 자사 슈퍼컴퓨팅 인프라와 자율주행, 디지털 트윈 등 다양한 소프트웨어가 모여 있는 플랫폼 ‘쿠다’를 활용해 엔비디아만의 생태계를 구축했다. AMD는 이런 열세를 극복하기 위해 AI 개발자를 위한 소프트웨어 제품군 ‘ROCm’도 대거 개선했다.

빅테크는 엔비디아 의존도를 낮추기 위해 자체 역량을 강화하고 있다. 아마존의 클라우드 자회사인 아마존웹서비스(AWS)는 AI 추론용 ‘인퍼런시아’와 훈련용 ‘트레이니엄’을, 구글은 ‘텐서프로세싱유닛(TPU)’이란 AI 반도체를 개발해 활용 중이다. MS는 최근 ‘애저 마이아’를, 메타는 ‘MTIA’를 선보였다. 국내에서 리벨리온, 퓨리오사AI 등이 차세대 AI 반도체를 개발 중이다.

업계에선 누구든 기존 제품을 뛰어넘는 AI 반도체를 개발하면 생성 AI업계의 오픈AI처럼 단숨에 생태계를 주도할 수 있다고 보고 있다. 글로벌 시장조사기관 프레시던스리서치에 따르면 올해 218억달러 규모인 AI 반도체 시장이 10년 뒤인 2023년 2274억달러 규모로 10배 이상 커질 전망이다.

이주현 기자/실리콘밸리=최진석 특파원 deep@hankyung.com

[출처] https://n.news.naver.com/mnews/article/015/0004932642?sid=105

Loading

19 12월 2023

[알아봅시다] 인텔 “AI PC 시대 연다”…노트북·데이터센터용 AI 프로세서 출시

[알아봅시다] 인텔 “AI PC 시대 연다”…노트북·데이터센터용 AI 프로세서 출시

인텔 “AI PC 시대 연다”…노트북·데이터센터용 AI 프로세서 출시

입력

인텔이 데이터센터와 PC용 AI 반도체 칩을 신규 공개하며 엔비디아와 AMD와 본격 경쟁에 돌입했다. 인텔은 18일 서울 여의도 전경련회관에서 기자간담회를 통해 데이터센터용 가우디 3 세부사항과 출시 계획, PC용 온디바이스 AI 제품 사업 전략까지 공개했다. 나승주 인텔코리아 상무(오른쪽)와 최원혁 상무가 인텔4 공정 웨이퍼와 5세대 인텔 제온 프로세서, 인텔 코어 울트라 프로세서를 소개하고 있다. 박지호기자 jihopress@etnews.com
인텔이 인공지능(AI) 기술이 적용된 노트북PC 및 데이터센터용 중앙처리장치(CPU) 칩을 출시했다. 사용자 기기부터 네트워크, 고성능컴퓨팅(HPC)까지 모든 곳에 AI를 적용한다는 인텔 목표의 첫발을 내딛은 것이다. AI 칩을 앞세워 2년 내 1억대 이상 AI PC 보급을 지원, AI 대중화에 기여한다는 포부도 밝혔다.

인텔은 18일 서울 전경련회관에서 ‘AI 에브리웨어(Everywhere)’ 기자간담회를 열고 노트북PC용 CPU ‘인텔 코어 울트라(메테오 레이크)’와 데이터센터용 CPU ‘5세대 제온 프로세서(에메랄드 래피즈)’를 출시했다고 밝혔다.

인텔 코어 울트라는 40여년만에 처음으로 인텔 PC용 CPU 구조가 바뀐 제품이다. 기존 프로세서는 CPU와 그래픽처리장치(GPU), 입출력(I/O) 인터페이스가 혼합된 형태로 설계됐다. 신제품은 이를 각 영역별로 분리, 타일 모양으로 배치했다. 노트북PC용 프로세서 가운데 처음으로 신경망처리장치(NPU)도 탑재했다.

인텔 코어 울트라 칩 구조. 중앙처리장치(CPU), 그래픽처리장치(GPU), 신경망처리장치(NPU), 입출력(I/O) 등 영역별로 ‘타일 구조’로 설계됐다.
최원혁 인텔코리아 상무는 “타일 구조는 특정 작업을 위해 필요한 코어만 가동하고 불필요한 나머지는 구동을 멈춰 전력 효율을 극대화할 수 있다”고 강조했다. 인텔 코어 울트라가 장착된 초경량 노트북으로 넷플릭스 시청이나 동영상 편집 작업 시 전력 소모가 40% 수준 개선됐다고 부연했다. 인텔은 타일 구조를 구현하기 위해 첨단 패키징 기술인 ‘포베로스’를 활용했다.

그래픽 성능도 대폭 향상됐다. 인텔 코어 울트라의 GPU 타일은 ‘인텔 아크’를 기반으로 설계됐다. 인텔 아크는 인텔의 외장형 GPU 브랜드다. 외장형 만큼 뛰어난 그래픽 성능을 신규 프로세서에 적용했다고 인텔은 설명했다. 기존 세대 대비 2배 빠른 그래픽 성능을 구현했다.

인텔 코어 울트라는 ‘AI PC 시대’를 연다는 인텔 비전을 담았다. 인텔은 최근 2025년까지 AI PC 1억대 보급을 지원한다는 계획을 공개했다. 스마트폰이나 노트북·PC 등 사용자 기기에서 AI를 구현한 ‘온 디바이스 AI’ 확산에 대응하려는 포석이다. 인텔 코어 울트라는 이같은 행보의 선봉장 역할을 맡을 것으로 전망된다. 이날 감담회에서는 삼성전자와 LG전자도 참여, 인텔 코어 울트라를 탑재한 노트북 신제품을 공개했다. 인텔 코어 울트라는 삼성·LG·에이서·에이수스·델·HP 등 AI 노트북 230여종에 탑재될 예정이다.

함께 공개된 5세대 제온 프로세서 역시 AI 성능을 대폭 개선했다. 4세대(사파이어 래피즈) 대비 일반 컴퓨팅 성능은 21%, AI 추론 성능은 42% 향상됐다. 나승주 인텔코리아 상무는 “초고속 DDR5 메모리(5600MT/s)와 3배 확장된 캐시 메모리를 지원, 보다 빠른 AI를 구현할 수 있게 됐다”고 밝혔다.

데이터센터 총소유비용(TCO) 경쟁력도 끌어올렸다. 5세대 제온 프로세서가 데이터센터용 CPU인 만큼 전력 소모 개선 등 비용 절감이 관건이다. 나 상무는 “서버 5년 교체 주기로 봤을 때 업계에서 1세대 제온 프로세서를 차세대 제품으로 바꿀 시기가 왔다”며 “1세대를 5세대 제온 프로세서로 전환할 경우 TCO를 최대 77%까지 절감할 수 있다”고 밝혔다. 이는 서버 24대로 운영했던 정보기술(IT) 인프라를 서버 1대로 운용할 수 있는 수준이다.

인텔이 데이터센터와 PC용 AI 반도체 칩을 신규 공개하며 엔비디아와 AMD와 본격 경쟁에 돌입했다. 인텔은 18일 서울 여의도 전경련회관에서 기자간담회를 통해 데이터센터용 가우디 3 세부사항과 출시 계획, PC용 온디바이스 AI 제품 사업 전략까지 공개했다. 최원혁 상무가 발표하고 있다. 박지호기자 jihopress@etnews.com
인텔은 내년 상반기 차세대 AI 가속기인 ‘가우디 3’도 출시한다. AI 전용 반도체로, 대규모언어모델(LLM) 등을 구현할 때 쓰이는 칩이다. 전 세대 대비 처리 속도는 4배, 고대역폭메모리(HBM) 메모리 용량도 1.5배 늘었다. 엔비디아와 AMD와 한판 승부가 예상된다.

권명숙 인텔코리아 대표는 “클라이언트(단말기기)에서 엣지, 네트워크, 데이터센터까지 모든 워크로드에서 쉽게 AI를 사용하도록 하는 것이 인텔 목표”라며 “이를 위해 하드웨어 뿐 아니라 개방형 소프트웨어 생태계를 구축하고 활성화하는 노력도 끊임 없이 추진하고 있다”고 말했다.

Loading

10 12월 2023

[정보 (및 수학)] 유럽연합, 세계 첫 AI규제법 합의…”안면인식 기술 금지”

[정보 (및 수학)] 유럽연합, 세계 첫 AI규제법 합의…”안면인식 기술 금지”

유럽연합, 세계 첫 AI규제법 합의…”안면인식 기술 금지”

입력
 

유럽연합(EU)이 유럽 내에서의 인공지능(AI) 기술 이용을 엄격하게 규제하는 ‘AI 규제법’에 세계 최초로 합의했다.

영국 BBC 등 외신 보도에 따르면 EU 27개 회원국 대표, 유럽연합 집행위원회(EC), 유럽의회는 약 3일에 걸친 논의 끝에 챗GPT와 같은 AI 시스템을 비롯해 안면인식 기술 사용을 유럽 내에서 규제하는 ‘AI규제법(AI Act)’에 8일(현지시간) 합의했다.

직후 유럽의회는 공식 자료를 내고 “AI가 사회에 해를 끼칠 수 있다는 접근을 기반으로 위협도 높을 수록 규제를 강화할 방침”이라며 “AI 규제에 대한 글로벌 표준을 정할 수 있는 세계 최초의 입법 제안”이라고 설명했다.

규제 대상이 될 AI는 다른 소프트웨어 시스템과 혼동되지 않도록 경제협력개발기구(OECD)에서 지정한 ‘AI시스템’의 정의를 따른다고 밝혔다. OECD에 따르면 입력된 명령을 기반으로 예측, 콘텐츠 생성, 추천, 결정과 같은 출력물을 생성하는 게 AI 시스템이다.

이번 AI 규제법은 개인의 생체정보를 무분별하게 수집해 딥페이크 영상이나 이미지 등을 만드는 안면인식 기술을 금지했다. 다만 인신매매 피해자 수색 등 범죄 용의자를 추적하기 위한 실시간 안면 인식은 허용된다.

오픈AI의 챗GPT 등 대규모언어모델(LLM)도 규제 대상이다. 구체적인 기술에 대한 규제 내용은 공개되지 않았다. 자율주행차 등 고위험 기술군으로 분류된 기술을 사용할 경우 데이터를 완전 공개해야 한다. 별도로 안전 강화와 관련한 테스트도 진행하게 된다.

규제법에 따라 금지된 AI 애플리케이션을 도입하거나 사용할 경우 해당 기업의 직전 회계연도 전세계 연간 매출액의 7%, 또는 3500만 유로(약 397억원)이 벌금으로 부과된다. 이밖에 규제법에 명시된 세부 규정을 어긴 IT기업은 1500만 유로(약 231억원)나 전세계 연간 매출액의 3%에 달하는 벌금을 내야한다. 다만 구체적인 비율에 대해서는 중소기업이나 스타트업에 한해 조정할 것이라고 밝혔다.

유럽의회는 2024년 초 합의된 AI규제법을 표결에 부칠 예정이다. 2025년에 이르러야 법안이 실제 발효될 것으로 보인다. 영국 BBC는 “EU가 이번 AI규제법을 합의함에 따라 미국, 영국, 중국 등도 서둘러 AI 규제 가이드라인을 만들기 위한 움직임을 보이고 있다”고 전했다.

Loading

5 12월 2023

[정보 (및 수학)] 수퍼컴에 필적하는 ‘양자컴’ 나왔다

[정보 (및 수학)] 수퍼컴에 필적하는 ‘양자컴’ 나왔다

수퍼컴에 필적하는 ‘양자컴’ 나왔다

IBM, ‘1000 큐비트’ 규모로 개발

수퍼컴퓨터에 필적할 만큼 빠른 속도로 연산이 가능한 양자 컴퓨터가 개발됐다. 양자컴은 기존 고전 역학으로는 설명이 불가능한 양자 현상을 이용해 복잡한 연산을 수행하는 컴퓨터다. 지금까지 세계 각국에서 개발한 양자컴이 연구 수준에 머물렀다면, 이번에 공개된 미국 IBM의 양자컴은 현재 상용화된 수퍼컴 수준을 따라잡았다.

IBM은 4일(현지 시각) 뉴욕에서 열린 ‘IBM 퀀텀 서밋’ 연례행사에서 1121 큐비트(qubit)의 ‘콘도르’를 공개했다. 큐비트는 양자컴의 연산 단위로 컴퓨터의 비트에 해당한다. 양자컴 연구자들은 수퍼컴을 뛰어넘는 양자컴의 기준을 1000큐비트 이상으로 전망해왔다. 스콧 크라우더 IBM 부사장은 “기존은 작은 단위의 큐비트로 시뮬레이션하는 수준이었다면 이제 더 큰 규모의 복잡한 연산이 가능해지는 단계”고 말했다.

그래픽=김하경
그래픽=김하경

◇매년 2~3배씩 성능 향상

양자컴은 기존 컴퓨터와 달리 0과 1을 동시에 연산 단위로 사용한다. 00, 01, 10, 11로 구현하는 식이다. 덕분에 큐비트가 늘어날수록 기하급수적으로 성능이 높아진다. 앞서 2019년 구글은 수퍼컴으로 1만년 걸릴 계산을 53큐비트 양자컴으로 200초 만에 수행했다고 밝힌 바 있다. 하지만 특정한 문제만을 빠르게 풀어낼 수 있는 일종의 실증 장치에 불과하다는 평가를 받았다.

이번에 공개된 콘도르는 1121큐비트 규모다. 지난해 공개한 ‘오스프리’의 433큐비트를 배 이상 뛰어넘은 것이다. IBM은 2019년 팰콘(27큐비트), 2020년 허밍 버드(65큐비트), 2021년 이글(127큐비트) 등 매년 2~3배씩 큐비트 성능을 높여왔다. 내년에는 1386큐비트의 플라밍고를 개발한다는 목표다. 2026년 이후에는 1만~10만 큐비트 수준의 양자컴을 개발할 계획이다. 크라우더 부사장은 “양자컴은 암호 해독 같은 특정한 영역에서 전통적인 컴퓨터가 할 수 없는 연산을 할 수 있다는 것이 강점”이라고 했다.

IBM은 이날 양자컴의 성능을 높이기 위해 큐비트를 늘리는 것 이외에 모듈(단위)을 연결하는 기술도 발표했다. IBM이 이날 공개한 ‘헤론’은 133큐비트이지만, 이를 3개 연결해 양자컴을 구축했다. IBM은 “모듈을 연결하는 것은 오류율을 대폭 낮추면서도 큰 규모의 양자컴을 만들어낼 수 있다”고 밝혔다. 양자컴은 이론상 큐비트를 늘릴수록 오류가 많아지기 때문에 이를 보정하는 기술 개발도 이뤄지고 있다. IBM은 “큐비트 성능이 높은 양자컴 하나를 만드는 것보다 작은 모듈을 여러 개 연결하면 오류 발생 확률이 줄어들면서 성능이 더 좋은 양자컴을 만들어낼 수 있다”고 했다. 헤론은 전작 대비 오류율이 최대 5배 향상됐다. 크라우더 부사장은 “양자컴 상용화가 임박한 만큼, 지금부터는 얼마나 퀄리티를 높이느냐가 관건”이라고 했다.

◇“10년 내 구체적 성과 나올 것”

업계에서는 양자컴이 머지않아 산업 현장에 투입될 것으로 기대한다. IBM은 지난 6월 국제학술지 네이처에 “양자 유용성이 입증됐다”고 밝혔다. 오류를 내지 않고 안정적으로 양자컴이 작동하면서 기존 컴퓨터보다 더 나은 능력을 보여주고 있다는 것이다. 양자컴은 우주 같은 기초과학 연구뿐 아니라 소재 개발, 반도체, 제약 분야 등에 활용될 수 있다. 예컨대 금융 산업에서 사기 행위를 감지하거나 환자에게 가장 적합한 치료법을 도출해내는 식이다. 크라우더 부사장은 “우리가 아직 시도하지 못했던 문제를 해결할 도구(양자컴) 하나를 가지게 됐다”며 “10년 정도 뒤면 양자컴의 활용이 보편화될 것”이라고 말했다.

☞큐비트(qubit)

양자컴퓨터의 연산 단위. 전통적 컴퓨터는 ‘비트’를 사용해 연산하며, 비트는 0 또는 1로 존재한다. 반면 큐비트는 0과 1이 동시에 존재할 수 있어 00, 01, 10, 11처럼 0과 1을 동시에 활용할 수 있다. 덕분에 연산 속도가 획기적으로 빠르다.

[출처] https://www.chosun.com/economy/tech_it/2023/12/04/Q2IO54LZNJB4JPG6PX5R6IGB3U/

Loading

24 11월 2023

[산업] “인류 구원할 우리가 무조건 옳다” 이 오만이 오픈AI 사태 불렀다 실리콘밸리 ‘효율적 이타주의’ 논란

[산업] “인류 구원할 우리가 무조건 옳다” 이 오만이 오픈AI 사태 불렀다 실리콘밸리 ‘효율적 이타주의’ 논란

“인류 구원할 우리가 무조건 옳다” 이 오만이 오픈AI 사태 불렀다

실리콘밸리 ‘효율적 이타주의’ 논란

“자신에게 인류를 구원할 수 있는 특별함이 있다고 철석같이 믿는 사람들은 그 목적을 위해 극단적 행동도 서슴지 않는 실수를 범한다.”

지난 17일(현지 시각) 이사회의 반란으로 갑작스럽게 해고됐던 샘 올트먼 오픈AI 최고경영자(CEO)가 전격 복귀한 다음 날인 22일. 구글 인공지능(AI) 연구팀 출신으로 AI 스타트업 ‘코히어(Cohere)’를 창업한 에이단 고메즈 CEO는 직원들에게 이 같은 내용의 메일을 보내며 “(실리콘밸리의) 효율적 이타주의(Effective Altruism)는 독단적인 자기 과시로 변질됐다”고 했다. 인류에 대한 AI의 위협을 막겠다며 올트먼을 해고시킨 오픈AI 이사회의 결정이 투자자나 직원 등 누구를 위한 것도 아니라 독선(獨善)에 불과했다고 작심 비판한 것이다.

ZPFMWDDSJNHYNDFMN2TITP4QGI.png
그래픽=양인성

◇오픈AI 사태 촉발한 효율적 이타주의 갈등

효율적 이타주의는 좋은 일을 할 때 냉정한 이성으로 긍정적 효과를 극대화시키는 방법을 추구해야 한다는 윤리 사상이다. 당장 눈앞에 있는 어려운 사람에게 돈을 주는 것이 나은지, 아니면 그 돈을 활용해 부를 창출하고 미래에 더 많은 사람을 구하는 것이 나은지 효율적으로 판단해야 한다는 식이다.

이 사상은 십수 년 전부터 실리콘밸리에서 크게 유행하며 거물 추종자를 양산했다. 올트먼을 쫓아낸 일리야 수츠케버 오픈AI 수석 과학자와 애덤 디앤젤로 쿼라 CEO 등 오픈AI 이사진도 이 사상의 열렬한 신봉자들이다. 이들이 ‘당장의 수백·수천 명의 이익보다 미래 수조 명의 잠재적 생명을 구하는 게 더 옳다(효율적이다)’는 논리로 그 어떤 피해를 감수하면서라도 AI의 폭주를 막는 일에 집착하게 된 것도 이 때문이다.

월스트리트저널(WSJ)은 “오픈AI 사태는 효율적 이타주의의 ‘신자’와 ‘비신자’ 간의 분열이 얼마나 큰지 보여준다”고 했다. 실제로 현실과 동떨어진 거대 담론은 오래전부터 오픈AI의 사내 갈등을 키워온 것으로 전해졌다. WSJ에 따르면 수츠케버는 인간보다 더 뛰어난 일반 인공지능(AGI)이 인간의 가치에 부합하는 일만 하도록 통제하는 ‘수퍼얼라인먼트’ 연구팀을 구성하면서, 향후 4년간 회사 컴퓨팅 자원의 5분의 1을 쓰겠다고 밝혔다. 하지만 이 때문에 당장 내년에 일어나는 미국 대선에 영향을 미치는 AI의 오·남용 문제를 해결할 역량은 줄었다. 이상만 좇는 이사진에 불만을 품는 직원이 많아진 배경이다.

전문가들은 “자신들이 인류를 구원할 수 있다고 착각하는 효율적 이타주의자들이 결과적으론 AI 난개발을 더욱 부추기게 됐다”고 지적한다. AI 상용화를 적극적으로 추진하는 올트먼이 회사로 복귀하면서, AI 안전을 중시하던 인물들이 이사회에서 사라지고 그 빈자리가 AI의 상용화를 지지하는 기업가·경제학자 등으로 채워졌기 때문이다.

◇변질된 윤리 사상, 사기의 면죄부로

효율적 이타주의를 악용하는 실리콘밸리 창업자도 흔하다. BBC는 지난해 10조원이 넘는 피해액을 기록한 가상 화폐 거래소 FTX의 몰락에 대해 “기업가들의 가장 편리한 홍보 수단이 된 효율적 이타주의가 문제”라고 지적했다. 샘 뱅크먼-프리드 FTX 창업자는 평소 이 사상의 추종자로 유명한 데다, FTX를 키우는 과정에서도 ‘돈을 많이 벌어 더 많은 기부를 하겠다’며 거액의 투자를 유치했기 때문이다.

‘피 한방울로 250가지 질병을 진단한다’는 문구로 투자자를 모은 엘리자베스 홈스 테라노스 창업자 역시 인류를 구하는 대업을 이루기 위해선 작은 거짓말 정도는 해도 된다는 잘못된 생각을 지닌 인물이었다. 심지어 올트먼조차도 비판에서 자유롭지 못하다. 그는 홍채 정보를 수집해 블록체인 기반의 신분 인증 시스템을 구축하는 ‘월드코인’ 프로젝트 투자를 유치하며 “수익을 나눠 전 인류에게 기본 소득을 줄 것”이라는 창대한 계획을 내세웠다. 하지만 당장 돈이 급한 개발도상국 시민들의 생체 정보를 허울 좋은 말로 수집하고 가상 화폐 가치 상승으로 돈을 벌었다는 지적이 나온다.

테크 업계 관계자는 “실리콘밸리의 효율적 이타주의는 공익을 위해 독단적인 결정을 내려도 괜찮은 ‘면죄부’ 또는 돈벌이 수단으로 변질됐다”고 했다.

[출처] https://www.chosun.com/economy/tech_it/2023/11/24/ONXLC5AHBZFVFDB4MLX6J5UGKA/

Loading

18 11월 2023

[인공지능 기술] 메타, 초보자를 위한 ‘라마 2 사용법 5단계’ 소개

[인공지능 기술] 메타, 초보자를 위한 ‘라마 2 사용법 5단계’ 소개

메타, 초보자를 위한 ‘라마 2 사용법 5단계’ 소개

 
메타(Meta)가 2023년 7월 대규모 언어 모델(LLM;Large Language Models) ‘라마(LIama) 2’를 공개했다. 라마 2는 누구나 무료로 사용할 수 있으면서, 소스 코드가 공개된 오픈소스라는 것이 큰 장점이다. 생성형 AI의 열풍에 불을 지핀 오픈AI의 챗GPT나 구글의 바드(Bard)가 폐쇄적인 정책을 선택한 것과 다르게, 라마 2는 누구나 연구나 상업적 용도로 사용하고 그 과정에서 생긴 리소스를 공유할 수 있다.

메타가 이러한 라마 2를 많은 사람들이 빠르고 쉽게 접하고 사용할 수 있도록, ‘라마 2를 시작하는 5단계(5 Steps to Getting Started with Llama 2)‘라는 초보자용 가이드를 공개했다. 파이썬(Python) 설치, 모델 가중치 다운로드, 파이썬 스크립트 작성, 모델 실행, 리소스 및 추가 자료로 구성되어 있으며, 블로그를 방문하면 각각의 단계를 따라가며 자세한 사용법을 익힐 수 있다.


‘라마 2를 시작하는 5단계’ 가이드는 파이썬 다운로드와 설치부터 시작해, 모델 가중치 다운로드, 파이썬 스크립트 작성 등의 과정으로 진행한다. 웹페이지를 방문하면 자세한 단계별 가이드를 확인할 수 있다. (자료 : Meta)

첫 번째는 자신이 사용하는 컴퓨터 운영 체제에 맞는 파이썬을 다운로드받아 설치해야 한다. 파이썬은 프로그래밍 언어로 라마 2는 파이썬으로 코드를 작성하고 이를 통해 원하는 작업을 수행하게 된다. 라마 2를 사용하기 위해서는 먼저 파이썬 웹사이트를 방문한 후 윈도, 리눅스/유닉스, 맥OS 등 운영체제에 맞는 파이썬을 다운로드해서 설치한다.

두 번째는 깃허브(Github) 저장소에서 모델을 다운로드하는 과정이다. 메타의 AI 사이트를 방문해서 라이선스에 동의하는 양식을 먼저 제출하면, URL이 포함된 요청 승인 메일을 받게 된다. 그런 다음 다운로드 스크립을 실행해서 깃허브에 있는 라마 2 저장소로부터 모델을 다운로드한다. 이때 입력할 스크립트나 명령어는 앞에서 언급한 가이드 페이지를 방문하면 자세하게 확인할 수 있다.

세 번째는 모델을 로드하고 변환기를 사용하여, 추론을 실행하는 데 필요한 모든 코드를 포함한 파이썬 스크립트를 작성할 차례다. 한 마디로 파이썬으로 프로그래밍을 하는 단계인 만큼, 파이썬 코딩에 대한 기본적인 지식이 있다면 수월하게 진행할 수 있다. 스크립트는 필요한 모듈 가져오기, 모듈 로드, 토크나이저 및 파이프라인 정의와 인스턴스화, 파이프라인 실행 등의 순서로 작성한다.

네 번째는 앞에서 작성한 파이썬 스크립트를 실행하는 과정이다. 작성한 스크립트를 저장하고, 콘다(Conda) 가상 환경으로 돌아간다. 앞에서 작성한 파이썬 스크립트를 실행하며 모델을 다운로드하고 스크립트를 실행한 후에, 생성된 질문 및 답변과 함께 파이프라인의 단계별 진행 상황을 보여준다. 작업이 완료되면 라마 2를 로컬 컴퓨터에서 설정하고 실행할 수 있다.

다섯 번째는 다양한 리소스와 추가적인 자료를 탐색하고 이를 적용하는 단계다. 라마 2의 작동 방식, 훈련 방법, 사용된 하드웨어에서부터 모델 아키텍처, 용도, 하드웨어와 소프트웨어 요구 사항, 교육 데이터 등 모델에 대한 상세한 자료를 구할 수 있다. 아울러 미세 조정을 빠르게 시작하는 방법과 미세 조정 모델에 대한 추론 실행 예제도 깃허브에서 제공하며, 코딩용 AI 도구인 코드 라마도 사용할 수 있다.

라마 2는 70억 개에서 최대 700억 개의 매개변수 범위에서 사전에 훈련되고 미세 조정된 대규모 언어 모델을 위한 가중치와 시작 코드를 포함하고 있다. 라마 1과 비교할 때 라마 2는 40% 더 많은 데이터를 학습하고, 콘텍스트는 2배가 많다. 그만큼 더 많이 공부했고, 그래서 더 똑똑하고 자연스러운 결과를 보여준다.

라마 2를 로컬 컴퓨터에서 설정해서 사용하는 방법은 여러 가지가 있다. 앞에서 소개한 것은 메타가 초보자들이 가장 쉽게 접근할 수 있도록 제시한 기본적인 단계와 방법이다. 오픈소스 대규모 언어 모델이 제공하는 자유로운 사용과 폭넓은 확장성을 경험할 수 있는 만큼, 챗GPT나 바드(Bard) 등의 생성형 AI의 텍스트 프롬프트의 제한에서 벗어나고 싶다면, 자유롭게 도전해 볼만한 가치가 있다. ciokr@idg.co.kr

원문보기:
https://www.ciokorea.com/print/314171#csidx0f9fc45b222279ba26f108c376bc753 

Loading