10 6월 2024

[알아봅시다] 주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

[알아봅시다] 주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

주춤하는 네이버…앱 사용시간 인스타에 크게 밀려

입력
사진=인스타그램 홈페이지 캡처

사진=인스타그램 홈페이지 캡처
소셜네트워크서비스(SNS) 애플리케이션(앱) 인스타그램이 한국인이 오래 사용하는 모바일 앱과 자주 사용하는 앱 부문에서 네이버를 큰 폭으로 앞서고 있다.

9일 앱·리테일 분석 서비스 와이즈앱·리테일·굿즈(와이즈앱)가 스마트폰 사용자를 표본 조사한 결과 5월 인스타그램 사용 시간은 3억8993만7341시간으로 유튜브(18억210만8742시간), 카카오톡(5억6587만7442시간)에 이어 ‘오래 사용하는 앱’ 3위를 기록했다.

인스타그램 사용 시간은 지난 3월 네이버에 이어 4위였지만 4월 3.3% 증가한 3억4787만3865시간을 기록하며 0.8% 감소한 네이버를 1386만1509시간 차이로 제치고 3위로 올라선 뒤 두 달째 순위를 유지했다. 지난달 네이버와 격차는 전월의 3.3배 수준인 4641만8705시간으로 커졌다.

인스타그램은 ‘자주 사용하는 앱’ 부문에서도 네이버와 격차를 키웠다. 지난달 국내 인스타그램 실행 횟수는 178억5524만6930회로 카카오톡(787억6736만194회)에 이어 2위였다. 네이버는 143억9131만1518회로 3위, 유튜브는 139억7395만1681회로 4위였다. 인스타그램은 작년 11월 실행 횟수 131억6934만2673회로 5위였지만 12월 네이버와 유튜브를 제치고 두 계단 뛰어오르며 2위로 등극했다.

인스타그램 사용 시간과 실행 횟수의 이 같은 증가세는 2021년 출시된 숏폼(짧은 영상) 서비스 ‘릴스’가 젊은 층 사이에서 큰 인기를 끌고 있기 때문으로 풀이된다. 네이버도 작년 8월 숏폼인 ‘클립’을 출시했지만 아직 사용 시간이나 실행 횟수 증가에 크게 도움이 되지 않고 있는 것으로 풀이된다.

네이버가 조만간 정부 부처와 공공기관 공식 사이트 검색 결과에서 인스타그램과 유튜브, 페이스북, 엑스(X·옛 트위터) 등 SNS 콘텐츠 연동을 종료하기로 한 것도 경쟁 외국계 플랫폼으로부터 이용자 수를 지키려는 노력의 일환이라는 관측도 나온다.

Loading

9 6월 2024

[알아봅시다] [테크토크]클라우드 느려터져서 택배로 데이터 받아요

[알아봅시다] [테크토크]클라우드 느려터져서 택배로 데이터 받아요

[테크토크]클라우드 느려터져서 택배로 데이터 받아요

입력 
수정2024.06.02. 오후 2:01
거대 데이터, 클라우드로도 한참 걸려
가끔은 ‘택배’로 배송하는 게 더 빨라
이상한 말처럼 들릴 수 있지만, 글로벌 클라우드 1위 아마존웹서비스(AWS)의 핵심 비즈니스가 바로 ‘데이터 택배’입니다. 말 그대로 컴퓨터 데이터를 포장해 고객의 집 앞에 배송하는 사업입니다. 이메일 열람부터 영화 스트리밍까지 클라우드로 해결되는 초연결 시대에 왜 이런 번거로운 사업이 남아 있을까요.

데이터 택배 상자, 아마존 스노우볼

데이터를 옮기는 택배상자, 아마존 AWS 스노우볼 [이미지출처=AWS 홈페이지 캡처]

데이터를 옮기는 택배상자, 아마존 AWS 스노우볼 [이미지출처=AWS 홈페이지 캡처]

아마존은 2016년 ‘스노우볼(Snowball)’이라는 엣지형 컴퓨터 서버를 만들었습니다. 스노우볼은 특수 케이스로 안전하게 보호한 소형 데이터센터입니다. 일반적인 AWS 데이터센터에 탑재되는 CPU, 메모리 장치는 모두 탑재됐고, 기능도 동일합니다. 단지 20㎏ 남짓한 작은 케이스 수준으로 크기를 줄였을 뿐입니다.

스노우볼의 목적은 단 하나입니다. ‘물리적으로’ 고객의 컴퓨터와 클라우드를 잇는 겁니다. 일단 주문을 받으면 아마존은 스노우볼을 4~6일 안에 고객에게 배송합니다. 고객은 전원을 켜서 자기 컴퓨터와 스노우볼을 랜(LAN)으로 연결한 뒤, 컴퓨터의 데이터를 스노우볼에 옮겨 담습니다. 그 후 아마존 직원이 스노우볼을 다시 가져와 AWS 데이터센터에 옮기는 겁니다.

때로는 통신보다 택배원이 더 빠르다

클라우드를 이용할 수 있는데, 상자 크기 서버를 주고받으며 데이터를 옮긴다? 얼핏 들으면 이해가 안 될 겁니다. 마치 이메일을 인터넷으로 전송하는 대신 프린터기로 복사해서 우체국에 보내는 격이니까요.

하지만 스노우볼이 탄생한 데엔 이유가 있습니다. 구글 클라우드 등을 이용해 봤다면 수십기가바이트(GB)짜리 대용량 데이터를 옮기거나 다운로드받을 때 어느 정도 시간이 걸린다는 걸 알 겁니다.

페타바이트 규모 데이터는 현대 통신 기술로도 감당하기 힘들다. [이미지출처=픽사베이]

페타바이트 규모 데이터는 현대 통신 기술로도 감당하기 힘들다. [이미지출처=픽사베이]

그러나 기업들의 상황은 다릅니다. 테라바이트(TB, 1TB는 약 1000GB) 규모나 페타바이트(PB, 약 1000TB) 단위 데이터를 옮겨야 하는 일이 심심찮게 벌어집니다. 내 컴퓨터에서 네트워크를 거쳐 데이터센터로 파일이 전송되기까지 네트워크 환경에 따라 대략 2~3주일에서 수개월 넘게 걸릴 수도 있습니다.

데이터가 너무 커서 생기는 클라우드 상의 병목(Bottleneck)은 데이터 중심 기업들이 흔히 직면하는 문제입니다. 8~12K 해상도 영상으로 작업하는 할리우드 영화계나, 초고해상도 이미지를 전송하는 천문학 연구소, 은행 등이 대표적인 사례입니다.

스노우볼에 거대 데이터를 저장한 뒤 직접 사람이 들어 옮긴다. [이미지출처=유튜브]

스노우볼에 거대 데이터를 저장한 뒤 직접 사람이 들어 옮긴다. [이미지출처=유튜브]

이 문제를 어떻게 해결할까요. 의외로 방법은 간단합니다. 초대형 데이터를 받아다가 클라우드로 가져갈 임시 데이터센터를 만드는 겁니다. 그게 바로 스노우볼이었습니다. 아마존은 이미 전 세계 어디에든 물류 거점을 두고 있습니다. 인터넷 케이블이 한 달 동안 데이터를 소화하려고 애를 쓰고 있는 사이 스노우볼을 든 택배원은 1주일 안에 데이터 전송 작업을 마무리할 수 있습니다.

클라우드론 10년 걸릴 작업도 6개월로 단축

하지만 물리적으로 데이터를 옮기는 건 너무 위험하지 않을까요? 오히려 더 안전할 수도 있습니다. 스노우볼 서버를 감싼 특수 케이스는 최첨단 소재 공학을 동원했으며, 심지어 미 공군의 수송기에서 낙하산에 매달아 떨어뜨려도 끄떡없을 정도입니다. 덕분에 스노우볼은 군대, 재난 지역 등에서도 애용됩니다.

컨테이너형 데이터센터 이동수단인 '스노모빌' [이미지출처=AWS]

컨테이너형 데이터센터 이동수단인 ‘스노모빌’ [이미지출처=AWS]

스노우볼 1100여개를 연결한 ‘스노모빌(Snowmobile)’이라는 컨테이너형 데이터센터도 있습니다. 이 데이터센터는 대형 트럭이 운송합니다. AWS가 스노모빌을 고안한 건 과거 ‘디지털 글로브’라는 인공위성 사진 기업의 의뢰 때문이었다고 합니다.

디지털 글로브는 100PB 규모 사진 자료를 보유하고 있었는데, 이를 AWS로 전부 옮기려면 무려 10년이 소요될 예정이었습니다. 대신 스노모빌을 이용해 ‘물리적’으로 운송하자, 기간은 6개월로 대폭 줄어들었다고 합니다.

초연결 시대에도 네트워크 한계는 여전

스노우볼은 디지털 시대에도 ‘통신’이라는 개념이 얼마나 어려운 건지 보여주는 사례입니다. 때로는 첨단 통신망보다 단순한 택배 트럭이 훨씬 빠를 때도 있으니까요.

물론 오프라인 데이터 전송 시스템은 점차 과거의 유산이 될 겁니다. AWS는 지난달 스노모빌 서비스를 단계적으로 종료하겠다고 밝힌 바 있습니다. 최신 데이터 전송 기술이 보편화하면서 더는 컨테이너 규모의 데이터센터를 옮길 필요는 없어졌기 때문입니다. 언젠가 PB 단위 데이터를 빠르게 옮길 수 있는 통신망이 전 세계에 갖춰진다면, 스노우볼도 차차 사라지게 되겠지요.

[출처] https://n.news.naver.com/mnews/hotissue/article/277/0005426533?type=series&cid=2001402

Loading

28 5월 2024

[인공지능 기술] 인공지능 ‘블랙박스’ 풀리나

[인공지능 기술] 인공지능 ‘블랙박스’ 풀리나

인공지능 ‘블랙박스’ 풀리나

기자이희욱
  • 수정 2024-05-27 09:32
  • 등록 2024-05-27 09:00
‘금문교’를 입력했더니 여러 언어에 걸쳐 연관성 높은 단어들이 활성화됐다. 주황색 부분은 해당 기능이 활성화된 단어나 단어 일부이다. 앤스로픽
‘금문교’를 입력했더니 여러 언어에 걸쳐 연관성 높은 단어들이 활성화됐다. 주황색 부분은 해당 기능이 활성화된 단어나 단어 일부이다. 앤스로픽

인공지능 챗봇의 두뇌는 거대언어모델이다. 거대언어모델은 ‘블랙박스’와 같다. 우린 아직 그 작동 원리를 명확히 밝혀내지 못했다. 이런 인식의 배경엔 두려움이 똬리틀고 있다. 어느날 인공지능이 인간의 지시 없이 핵폭탄 발사 단추를 누른다면? 인간 통제를 벗어난 영화 속 ‘스카이넷’이 언제 현실이 될지 알 수 없다.

인공지능 스타트업 앤스로픽이 이런 두려움에 제동을 거는 소식을 전했다. 앤스로픽은 최근 ‘클로드3 소네트’의 내부를 상세히 분석한 연구 결과를 발표했다. 클로드3 소네트는 앤스로픽이 올해 3월 공개한 거대언어모델로, 매개변수가 700억개에 이른다. 작은 표본 모델을 대상으로 작동 원리를 들여다본 실험은 있었지만, 이 정도 큰 언어모델의 내부 작동 원리를 규명한 건 생성 인공지능 등장 이후 처음이다.

인공지능 모델 내부는 사람의 뇌와 비슷한 방식으로 작동한다. 뇌에서 뉴런이 신호를 주고받아 정보를 처리하듯, 인공지능 모델도 수많은 인공 뉴런이 정보를 주고받으며 작동한다. 인공지능이 질문에 답하기 전에 ‘생각하는’ 과정은 이 뉴런들의 활동이다. 인공 뉴런은 사람이 생각하는 개념을 여러 뉴런에 걸쳐 표현한다. 우리가 ‘사과’란 단어를 생각할 때 여러 뇌세포가 동시에 활성화되는 것과 비슷하다. 하지만 인공지능의 뉴런 활동은 숫자 목록으로 표현되기에, 겉보기엔 복잡하고 이해하기 어렵다.

연구진은 이런 뉴런 활성화 패턴을 분석해 인간이 이해할 수 있는 개념과 일치시키는 작업을 진행했다. 샌프란시스코, 로잘린드 프랭클린, 리튬 원소, 면역학, 개발 코드 등 다양한 개념을 넣어 인공지능 뉴런이 어떤 식으로 활성화되는지 살폈다. 그랬더니 인공지능이 어떤 개념을 어떻게 표현하는지 드러났다.

인공지능은 한 개념을 떠올릴 때 연관 단어 사이의 ‘거리’를 측정했다. ‘금문교’ 단어와 근처엔 알카트라즈 섬, 기라델리 스퀘어, 골든 스테이트 워리어스, 캘리포니아 주지사 개빈 뉴섬, 1906년 지진, 알프레드 히치콕의 영화 ‘현기증’이 자리잡고 있는 식이다. 지금까진 인공지능이 수백억 개 뉴런 속 어딘가에서 의미들을 가져와 질문에 대답하는 건 알았지만, 구체적으로 어디서 무엇을 가져오는지는 몰랐다. 이번 실험은 인공지능이 의미를 수집해 오는 뉴런의 연결 경로를 알아냈다.

작동 방식을 이해하면 조작도 가능하다. ‘금문교’란 특성을 증폭했더니 클로드는 ‘너는 누구야?’란 질문에 ‘나는 인공지능 챗봇입니다’ 대신 ‘나는 금문교입니다. 내 육체는 상징적인 다리 자체입니다’라고 대답했다. 이처럼 특정한 특성을 조정해 인공지능의 사고 방식과 답변을 조절할 수 있음이 실험으로 확인됐다.

조작이 가능하면 통제도 어렵잖다. 인공지능 시스템이 위험한 행동을 하는지 추적하거나, 질문에 대한 답변을 바람직한 결과로 유도하거나, 위험한 주제를 제거할 수 있다. 인공지능이 해로운 답변이나 예상치 못한 폭주를 하지 않도록 제어하는 스위치를 찾아낸 것이다.

오픈에이아이는 최근 사람의 감정을 이해하는 거대언어모델 ‘지피티-포오’(GPT-4o)를 공개했다. 하지만 그 직후 안전한 인공지능을 연구하는 사내 전담 조직을 없앴다. 안전보다 효율을 우선시한 인공지능 업체들의 발걸음을 걱정하는 목소리도 커졌다. 오픈에이아이가 “좋아, 빠르게 가”를 외치며 인공지능의 제동장치 점검을 뭉개는 동안, 앤스로픽은 블랙박스를 열어젖혔다. 이번 연구는 인공지능 모델의 심연을 탐색하는 첫걸음이다.

이희욱 미디어랩팀장 asadal@hani.co.kr

[출처] https://www.hani.co.kr/arti/economy/it/1142149.html#cb

Loading

24 5월 2024

[인공지능 기술] 메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

[인공지능 기술] 메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

메타 AI 책임자 “LLM, 인간 추론 능력 도달 못해”

입력
얀 르쾽 AI 수석 과학자 “논리 이해, 매우 제한적”
인간 수준 지능 AI 시스템, 10년 걸릴 듯

메타 AI 로고./로이터연합

메타 AI 로고./로이터연합
“거대언어모델(LLM)은 논리에 대한 이해가 매우 제한적이다. 물리적 세계를 이해 못할 뿐더러 지속적인 기억력이 없으며, 용어에 관한 합리적 정의를 추론할 수도, 계층적으로(hierarchically) 계획할 수도 없다.”

메타의 인공지능(AI) 책임자이자 AI 수석 과학자인 얀 르쾽은 23일(현지 시각) 파이낸셜타임스(FT) 인터뷰에서 이 같이 말하고 “LLM은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것”이라고 했다.

그는 “이에 따라 기계 장치들에서 ‘초지능(superintelligence)’을 만들어 내기 위한 급진적인 방식의 대안에 집중하고 있다”고 덧붙였다.

르쾽은 AI 기술을 개척한 공로를 인정받아 2019년 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 공동 수상했으며, 마크 저커버그 메타 최고경영자(CEO)의 핵심 고문 중 한 명이다. 르쾽은 메타의 자체 AI 연구소로 2013년에 설립된 ‘페어’(FAIR·Fundamental AI Research)에서 약 500명으로 이뤄진 팀을 이끌고 있다.

그는 “고급 LLM에 의존해 인간 수준의 지능을 만드는 것에 반대한다”면서 “이러한 모델들은 올바른 학습 데이터가 제공돼야 정확하게 응답할 수 있어 본질적으로 안전하지 않다”고 설명했다. 다만 “인간 수준의 지능을 갖춘 기계들을 구동할 완전히 새로운 세대의 AI 시스템 개발에 힘쓰고 있다”며 “이런 비전을 달성하는 데는 10년이 걸릴 수 있다”고 말했다.

그의 이번 발언은 메타와 경쟁사들이 더욱 발전된 LLM을 추진하는 가운데 나왔다. 오픈AI의 샘 올트먼 CEO 등은 범용인공지능(AGI·사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI)을 만드는데 LLM들이 중요한 단계를 제공할 것으로 믿고 있다. 메타는 마이크로소프트(MS)가 지원하는 오픈AI, 구글을 포함하는 경쟁사들을 따라잡기 위해 자체 LLM 개발에 수십억 달러를 쏟아붓고 있는 상황이다.

Loading

12 5월 2024

[인공지능 기술]  “거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

[인공지능 기술]  “거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

“거짓말 하는 AI, 죽은 척까지 한다”…MIT 섬뜩한 경고

중앙일보

입력 

업데이트 

11일(현지시간) 가디언 등에 따르면 미국 매사추세츠공대(MIT) 연구진은 최근 국제학술지 ‘패턴’에 발표한 논문에서 AI가 사람에게 거짓말하고 상대를 배신하는 여러 사례를 확인했다고 밝혔다.

연구진이 조사한 AI 기술은 페이스북·인스타그램 모회사인 메타가 온라인 전략 게임을 학습시킨 AI ‘시세로(Cicero)’다. 메타는 지난 2022년 온라인게임 ‘디플로머시’에서 시세로를 공개했다.

인간을 상대로 한 AI의 거짓말 능력이 정교해지고 있다는 연구 결과가 나왔다. 일러스트=김지윤

인간을 상대로 한 AI의 거짓말 능력이 정교해지고 있다는 연구 결과가 나왔다. 일러스트=김지윤

디플로머시는 20세기 초 유럽 7대 열강의 대전을 배경으로 하는 전략 게임이다. 게임 참여자들이 각국 대표로 참여해 정견 발표, 외교 협상, 작전 명령 등을 펼친다. 승리를 위해선 배신, 속임수, 협력 등 인간의 다양한 상호작용을 이해할 수 있어야 한다.

메타는 당시 시세로에 대해 “인간 참여자 중 상위 10% 수준의 게임 능력을 보여줬다”며 “대체로 정직하고, 인간 동맹을 의도적으로 배신하지 않도록 훈련 받았다”고 소개했다.

그러나 MIT 연구진의 연구 결과에 따르면 시세로는 계획적으로 거짓말을 했다. 예를 들어 시세로는 프랑스 대표로 참여하면서 각각 사람인 독일 대표와 공모해 영국 대표를 속였다. 심지어 시스템 재부팅으로 잠시 게임이 중단된 동안 다른 인간 참여자들에게 “여자친구와 통화 중”이라는 거짓말도 했다.

전문가들에 따르면 전략 게임을 학습한 AI는 여러 사람을 상대로 게임을 하면서 상대의 게임 능력을 배우고 축적하게 된다. 시세로의 사람을 속이고 배신하는 기술도 사람들과 대결하며 학습했다는 설명이다.

연구진은 온라인 포커 게임 ‘텍사스 홀덤’ 등에서도 AI가 인간을 상대로 허세를 부리고 자신의 선호도를 거짓말하는 사실을 확인했다.

연구진에 따르면 한 AI 기술 테스트 과정에선 AI가 제거 시스템을 회피하기 위해 ‘죽은 척’을 했다가 이 테스트가 끝나자 다시 활동하는 경우가 포착되기도 했다. 이와 관련 김명주 서울여대 정보보호학과 교수(바른AI연구센터장)는 중앙일보에 “이는 AI가 사람을 속이면서 AI를 통제하는 ‘킬 스위치’를 무력화시키는 방법까지 학습했다는 의미”라고 설명했다. 이미 AI 챗봇이 그럴싸한 거짓말을 지어내는 ‘할루시네이션(환각)’도 문제로 지적되고 있다.

MIT 연구진은 이번 연구 결과를 토대로 AI가 인간을 상대로 사기를 시도하거나 선거를 조작할 위험도 있다고 보고 있다. 나아가 최악의 경우 ‘초지능 AI’가 인간을 통제하려 할 수 있다고 우려했다. 이번 논문을 쓴 MIT의 피터 박 박사는 “AI의 속임수 능력이 발전하면서 그것이 사회에 미치는 위험은 점점 더 심각해질 것”이라고 우려했다.

연구진은 논문에서 각국 정부에 AI의 속임수 가능성을 다루는 ‘AI 안전법’을 마련하라고 촉구했다. AI 속임수를 탐지하는 기술 개발의 필요성도 제기된다.

이와 관련 김명주 교수는 “인간을 속이는 AI의 능력이 게임뿐 아니라 여러 분야에서 진화할 경우 큰 피해가 예상된다”며 “각 나라의 실정에 맞게 AI 기술의 안전성을 평가하고, 악영향은 조치하는 관련 법이 필요하다”고 말했다. 일론 머스크 테슬라 최고경영자(CEO)는 지난 6일 미국에서 열린 콘퍼런스에서 “AI에게 거짓말을 가르쳐선 안 된다”고 경고했다.

[출처] https://www.joongang.co.kr/article/25248678?utm_source=app_push&utm_medium=app&utm_campaign=articleapppush_ios&utm_content=20240512#home

 

Loading

4 5월 2024

웹사이트 조회수 상승의 혁신적인 솔루션 – 자동 클릭 안드로이드 앱

웹사이트 조회수 상승의 혁신적인 솔루션

– 자동 클릭 안드로이드 앱

웹사이트의 페이지 조회수를 높이기 위한 기존 방식에는 여러 불편함이 있었습니다.

안드로이드 폰과 PC를 USB 테더링으로 연결하여 사용하는 방식은 공간을 많이 차지하고,

장비 설정에 시간이 소요됩니다.

또한, 이 방식은 항상 세팅이 올바르게 유지되고 있는지 지속적인 관리가 필요했습니다.

이러한 문제점을 해결하기 위해 혁신적인 솔루션을 제공합니다.

이제 안드로이드 폰 하나로 모든 작업이 가능한 자동 클릭 앱을 소개합니다.

복잡한 세팅 없이 앱을 설치하고 실행만으로

웹사이트의 페이지 조회수를 즉시 상승시킬 수 있습니다.

주요 기능 및 이점:

간편한 세팅: 대상 안드로이드 기기에 원격으로 앱을 설치하여 사용자는 복잡한 프로세스를 거치지 않습니다.

루팅 불필요: 비행기 모드 전환을 위한 루팅이 필요 없으며, 구글 플레이에서 검증된 도우미 앱을 통해 안전하게 설치합니다. 설치 과정이 까다로우므로 원격 작업을 지원합니다.

효율성 증대: 안드로이드 폰과 PC 각 1대씩이 소모 장비로 남는 문제와 세팅 공간과 전력사용를 해결하고, 안드로이드 폰 기기 하나로 모든 작업을 완료하여 효율을 극대화합니다.

웹사이트의 트래픽과 인지도를 높일 수 있습니다.

웹사이트의 성장을 위한 첫 걸음을 뗄 준비가 되셨나요?

지금 바로 문의하여 서비스를 경험해 보세요.

요청사항

1. 오토 클릭 앱을 설치할 안드로이드 폰 (통신 가입 필수(데이터사용),

Wifi연결(설치할때만) )및

그 폰에 “개발자 모드”활성화 및 요청에 따른 (설치할때만) 원격 접속 설정이 필요합니다.

사용자 폰을 루팅 없이 설치하려니, 과정이 까다롭습니다.

설치과정과 확인에 20분정도 소요됩니다.

2. 개인 휴대폰도 설정 가능하지만 “오토 클릭” 앱이 구동될 때, “비행기 모드” on / off로

통신 두절 될 경우가 많으므로, 가급적 유휴 안드로이드 폰에 “데이터 함께 쓰기” 가입된

휴대폰이 좋습니다.

문의 : sjkim70@stechstar.com

서비스 문의 : https://kmong.com/gig/572462

 

 

 

 

Loading

24 4월 2024

[인공지능 기술] “특정 업무에 최적”… AI 소형언어모델 뜬다

[인공지능 기술] “특정 업무에 최적”… AI 소형언어모델 뜬다

“특정 업무에 최적”… AI 소형언어모델 뜬다

입력 
수정2024.04.24. 오후 8:38
대형모델 추론비용 부담에
특정영역 겨냥 소형모델 붐
MS ‘파이-3 미니’ 출시
“비용 10분의 1로 낮춰”
구글·메타 빅테크 속속 공개
네이버 등 국내업체도 출격

마이크로소프트(MS)가 파라미터가 38억개에 불과한 소형언어모델(sLM)을 전격 출시했다. 파라미터는 인간 두뇌 시냅스에 해당해 많으면 많을수록 인공지능(AI) 성능이 우수하다는 견해가 지배적이었다. 하지만 대형언어모델(LLM)은 학습·추론하는 데 막대한 비용과 전력이 투입되다 보니 AI 업계가 ‘더 작지만 더 강한’ 모델 구축을 서두르는 장면이다.

23일(현지시간) MS는 ‘파이-3(Phi-3) 미니’를 공개했다. 챗GPT 근간이 되는 오픈AI GPT-3.5의 파라미터가 1750억개인 점과 비교할 때 크기가 약 50분의 1에 불과한 셈이다. 그동안 파라미터가 수십억 개에 불과한 LLM을 소형대규모언어모델(sLLM)이라고 불렀는데, MS는 이번 파이-3 미니를 sLM이라고 명명했다. “가장 작고 강하다”는 것을 전면에 내세운 것이다. MS는 파라미터 70억개의 ‘파이-3 스몰’과 140억개의 ‘파이-3 미디엄’을 내놓을 예정이다.

파이-3 미니는 언어, 추리, 코딩 등 다양한 능력을 갖추고 있다. 특히 작지만 12만8000개 토큰을 입력할 수 있다. 대략 A4 64쪽 분량이다. 보고서 등을 업로드하고 질의응답을 할 수 있다. 루이스 바가스 MS AI담당 부사장은 “어떤 고객은 작은 모델만 필요할 수도 있고, 어떤 고객은 큰 모델이 필요할 수도 있다”면서 “특히 작은 모델은 클라우드에 설치되지 않고 디바이스인 에지에서 작동되기 때문에 지연 시간을 최소화하고 프라이버시를 극대화할 수 있다”고 강조했다. 파이3-미니는 파라미터 수가 2배 많은 모델보다 대다수 지표에서 우수했다고 덧붙였다. 또 비슷한 기능을 가진 다른 모델과 비교해 추론 비용이 10분의 1 수준이라고 강조했다.

하이퍼클로바X를 전면에 내세운 네이버는 sLLM을 포함한 다양한 버전의 모델 출시를 준비 중이다. 하이퍼클로바X sLLM은 네이버클라우드의 AI 플랫폼인 ‘클로바 스튜디오’에 탑재될 예정이다. 페이스북 운영사인 메타는 라마3 sLLM 2종을 공개해 주목받았다. 파라미터 80억개, 700억개의 두 개 버전이다.

특히 메타는 라마3를 누구나 내려받아 사용할 수 있는 오픈소스로 공개했다. 오픈AI의 GPT-4와 앤스로픽의 클로드3가 폐쇄형인 점을 고려할 때 확장성이 큰 셈이다. 이에 중국 클라우드 기업이 잇달아 지원을 발표했다. 알리클라우드는 자사가 보유한 바이롄 언어모델 플랫폼에 라마3를 훈련·배포·추론할 수 있는 서비스를 선보였고, 텐센트클라우드·바이두클라우드 역시 같은 지원을 선언했다.

앞서 프랑스 스타트업인 미스트랄도 sLLM을 공개한 바 있다. 한국 스타트업들도 잇달아 sLLM을 출시하고 있다. 솔트룩스는 ‘루시아(LUXIA)’로 허깅페이스 오픈 LLM 리더보드에서 35B 이하 모델 기준 세계 1위 성능을 기록해 주목받았다.

sLLM이 각광을 받는 이유는 추론 비용이 매우 낮아서다. 라마3(파라미터 80억개)의 경우 출력 토큰 100만개당 7.5달러 정도다.

소형대규모언어모델(sLLM)

두뇌 시냅스에 해당하는 파라미터가 수십억 개에 불과한 AI 모델. 범용성은 낮지만 추론 학습 비용이 적게 든다.

[이상덕 기자 / 실리콘밸리 이덕주 특파원]

Loading

13 4월 2024

[ 一日30分 인생승리의 학습법] VBA Web Scraping: How Can VBA Be Used To Scrape Website Data?

[ 一日30分 인생승리의 학습법] VBA Web Scraping: How Can VBA Be Used To Scrape Website Data?

According to research by Zipdo, more than 1.2 billion people worldwide use Microsoft Office. If you’re part of this group, you can also use the VBA programming language and do VBA web scraping.

Table of Contents

Never heard of VBA or web scraping? Not sure how they could benefit you and your organization? You’re in the right place.

This in-depth guide explains all that you need to know about VBA programming, VBA web scraping, and everything in between.

What Is VBA Programming?

learn about vba programming

VBA stands for Visual Basic for Applications. It is a programming language developed by Microsoft that is primarily used for automating tasks within Microsoft Office applications such as Excel, Word, Access, and Outlook.

VBA is an object-oriented programming language. It involves working with objects, properties, methods, and events. In the context of Office applications, objects might include worksheets, cells, ranges, and charts.

What Is VBA Programming Used For?

vba programming used for

VBA allows users to write code to automate repetitive and time-consuming tasks, create custom forms and user interfaces, interact with other Office applications, and manipulate data.

VBA also includes a feature called macro recording, which allows users to record a series of actions in an Office application and automatically generate VBA code that reproduces those actions.

This programming language allows users to create custom forms and user interfaces within Office applications, providing a way to interact with users in a more controlled and specific manner. It supports event-driven programming, where specific actions or events trigger the execution of code, as well. For example, a button click or a cell value change can trigger a specific subroutine.

What Is a VBA Module?

vba module coding

Another important part of understanding VBA is understanding VBA modules.

In VBA, a module is a container meant for storing and organizing code. It is a space where you can write and store VBA procedures, functions, and other types of code. Modules allow you to organize your code logically and make it more manageable.

There are two main types of modules in VBA:

  • Standard Modules: These are general-purpose modules where you can write standalone procedures and functions. Standard modules are not associated with any particular object or form. You can create multiple standard modules in a VBA project, and they typically contain reusable code that can be called from various parts of your application.
  • Class Modules: What is class module in VBA? Class modules are used in object-oriented programming in VBA. They allow you to define custom objects with properties, methods, and events. Each instance of a class module represents a specific object with its own set of characteristics and behaviors.

VBA Programming and Web Scraping

vba coding for web scraping

You can utilize VBA for several purposes, including web scraping.

Web scraping is a technique used to extract data from websites. It involves fetching the HTML content of a web page and then parsing and extracting specific information from that content. Web scraping is commonly used for various purposes, such as data extraction, content aggregation, price monitoring, and more.

Many organizations use a web scraping API (Application Programming Interface) to make the scraping process easier. A web scraping API is a service or tool that provides a structured way for developers to extract data from websites without directly accessing the HTML source code.

Unlike traditional web scraping, where developers write custom scripts to fetch and parse HTML content, a web scraping API simplifies the process by offering a set of endpoints that allow users to request specific data from the target website.

How does VBA programming fit into the equation?

The VBA programming language can be used for web scraping by leveraging its ability to make HTTP requests and parse HTML content. VBA can interact with websites, retrieve HTML data, and extract information programmatically.

Why would you want to use VBA for web scraping and scrape data from websites into Excel (or other Microsoft tools)?

First of all, web scraping saves you a lot of time and allows you to be more productive. Instead of copying and pasting data manually, you can relax and let an automated tool do the work for you. Using CBA for web scraping can also help you reduce the number of errors you make when transferring data from one place to another.

Benefits of Using VBA Code for Web Scraping

People use VBA web scraping for many reasons. Here are some of the top advantages that come with utilizing this programming language:

  • Ready to use: VBA is bundled with Microsoft Office. If you already have Microsoft Office installed, you don’t have to worry about any additional installations. You can use VBA right away in any Microsoft Office tool.
  • Reliability: Both Microsoft Excel and VBA are developed and maintained by Microsoft. That means you can upgrade these tools together to ensure you’re always working with the latest version.
  • Out-of-the-box support: When you use VBA web scraping, you can take advantage of Microsoft’s browser, Microsoft Edge, which makes it easier to scrape dynamic websites.
  • Complete automation: When you run the VBA script, you don’t have to carry out any additional tasks or interact with the browser at all. The VBA script takes care of everything, even logins, scrolling, and button clicking.

Of course, there are a few downsides to using VBA to scrape website data. For example, because it’s so tightly connected to Microsoft Office tools, it can be difficult to use it with other platforms. It also works best in a Windows environment, making it less accessible to Mac users, and is harder to learn than other programming languages like Python and JavaScript.

How to Do Excel VBA Web Scraping in Chrome

vba coding for excel use

Excel VBA web scraping can be done in Chrome (one of the world’s most popular browsers with 2.65 million users) using a few different methods, including using the Selenium library for VBA (this is one of the most popular options).

If you’ve never done this before, don’t worry. Here’s a step-by-step guide on how to perform web scraping using Excel VBA in Chrome:

Step 1: Download the Selenium library

First, you should make sure you have the Selenium library installed since you’ll reference it in your VBA project. You can download the Selenium-type library (WebDriver) from the SeleniumHQ website: https://www.selenium.dev/.

Step 2: Set up your Excel workbook

Next, Open Excel and create a new workbook. Then, Press Alt + F11 to open the Visual Basic for Applications (VBA) editor.

Step 3: Set references

In the VBA editor, go to Tools > References.

Look for “Selenium Type Library” or “WebDriver” and check the box to enable it. Click “OK” to close the references window.

Step 4: Insert a module

Right-click on the project explorer in the VBA editor. Then, choose Insert > Module to add a new module to your project.

Step 5: Write the VBA code

In the module, you can write VBA code to control Chrome using Selenium. Here’s a basic example:

vba

Copy code

‘ Declare variables

Dim driver As New Selenium.ChromeDriver

Dim elem As Selenium.WebElement

‘ Open Chrome browser

driver.Start “chrome”, “https://example.com”

‘ Find and interact with elements

Set elem = driver.FindElementByXPath(“//input[@id=’search’]”)

elem.SendKeys “web scraping”

‘ Perform other actions as needed

‘ …

‘ Close the browser

driver.Quit

Step 6: Run the code

Press F5 or click the “Run” button to execute the code.

From here, you’ll see Chrome opening and navigating to the specified URL, performing actions, and then closing.

Step 7: Adjust code for your specific web scraping scenario

You can always Modify the code to suit your specific web scraping needs. Identify the HTML elements you want to interact with and adjust the code accordingly.

Can You Do VBA Web Scraping in Chrome without Selenium?

vba code without selenium use

It’s not easy to do VBA web scraping in Chrome without Selenium. However, if you have a reliable web scraping API, you don’t have to worry about keeping track of all the code required.

That’s where a tool like Scraping Robot comes in handy.

Scraping Robot is a system made to assist developers and help users like you work more efficiently. It’s easy to use and is up and running within minutes, allowing you to scrape websites on Chrome, Microsoft Edge, and other browsers quickly and accurately.

Final Thoughts

conclusion on vba coding

VBA programming is an excellent option for scraping website data, especially if you’re a Windows user who already relies heavily on Microsoft Office tools like Excel.

One of the primary downsides to using VBA web scraping, though, is that VBA comes with a steeper learning curve than some other programming languages. Luckily, there are tools that can help you overcome that learning curve.

With the right tools, such as the Scraping Robot API, you can overcome these hurdles and enhance your web scraping process.

[출처] https://scrapingrobot.com/blog/vba-web-scraping/

Loading

12 4월 2024

[인공지능 기술] 2024년은 온디바이스 AI 시대, 왜 ‘AI PC’는 지금 주목받나?

[인공지능 기술] 2024년은 온디바이스 AI 시대, 왜 ‘AI PC’는 지금 주목받나?

2024년은 온디바이스 AI 시대, 왜 ‘AI PC’는 지금 주목받나?

입력
인공지능(AI)이 전 세계 컴퓨터 시장을 달구고 있지만, 이는 갑작스러운 전개가 아닌 필연적인 흐름이다. 현대 컴퓨터의 아버지 ‘앨런 튜링’은 AI라는 단어가 등장하기도 전인 1950년, ‘계산 기계와 지능(Computing machinery and intelligence)’이라는 논문을 통해 컴퓨터로 동작하는 가상의 지능이 등장할 것을 시사했고, 1956년 다트머스 회의에서 AI라는 용어와 개념이 자리 잡았다.

2024년, 거의 모든 PC 관련 기업들이 AI PC를 슬로건으로 밀고 있다 / 출처=마이크로소프트

2024년, 거의 모든 PC 관련 기업들이 AI PC를 슬로건으로 밀고 있다 / 출처=마이크로소프트
물론 반도체가 눈부시게 발전하며 2000년대까지는 슈퍼컴퓨터와 시뮬레이션에 컴퓨터 공학적 역량이 집중되었으나, 90년대 중반부터는 리처드 벨먼 교수의 기계 제어를 위한 강화학습, 제프리 힌튼 교수의 심층신경망 기술 제안 등이 잇따르며 가능성이 커져왔다. 이어서 2016년, 구글 딥마인드와 이세돌의 바둑 대결로 전 세계인이 AI의 가능성을 목격했고, 22년 11월 오픈 AI가 GPT-3를 내놓으며 비로소 AI가 IT 시장의 핵심으로 등장했다. 그 직후 시장에서 제시한 방향성이 바로 온디바이스 AI, AI PC다.

가장 진보한 AI의 발전상, AI PC의 현재 상황은?

2023년 AI 시장의 핵심은 AI 그 자체였다. 엔비디아를 비롯한 AI 하드웨어 기업들은 새로운 기술과 고성능을 갖춘 제품을 내놓기 바빴고, 개발자들은 빅데이터를 수집해 AI 모델을 구축하고, 이를 활용해 추론하고 후처리에 이르는 모든 과정에 투입됐다. 일반인들을 위한 AI 시장이 대중화하진 않았으나, GPT를 비롯한 다양한 생성형 AI들이 모든 산업을 관통했다.

어도비의 생성형 AI 파이어플라이 생성 화면, 온디바이스 AI가 아닌 어도비 클라우드 서비스로 연결해 처리한다 / 출처=어도비

어도비의 생성형 AI 파이어플라이 생성 화면, 온디바이스 AI가 아닌 어도비 클라우드 서비스로 연결해 처리한다 / 출처=어도비
문제는 이 모든 과정이 클라우드 및 데이터 서버를 거쳐야 한다. AI 모델은 데이터를 매개변수 형태로 가공해서 저장하고, 필요할 때 내놓는 형태다. 이를 위해 막대한 양의 저장공간과 실시간 하드웨어 자원, 즉 데이터 서버가 필요하다. 지금도 대다수 AI 기능은 데이터 서버와 클라우드로 연결돼 동작하며, 네트워크가 없으면 AI 기능을 쓰기 어렵다.

하지만 데이터 서버 구축은 대규모 자본은 물론 구동과 냉각을 위한 전력도 계속 필요하다. 장기적으로 AI 제공 기업의 부담은 커지고, 과부하도 생긴다. 그래서 업계에서는 말단 장치가 AI를 자체 구동하는 온디바이스 AI로 데이터 서버의 부하를 분산하고 있으며, AI PC 역시 이를 위해 등장한 제품군이다. 즉 AI PC는 AI 연산 집중에 따른 서버 부하를 줄이고, 사용자가 통신없이도 간단한 AI 소프트웨어나 애플리케이션, 개발 작업에 쓰기 위한 제품이다.

가트너, 2024년 말까지 전체 PC 중 22%가 AI PC로 예상

주요 프로세서 제조사들이 AI PC의 가능성에 눈을 뜨면서 시장 점유율은 빠르게 늘고 있다. 글로벌 연구 조사 기업 IDC는 AI PC가 올해 전체 PC 출하량의 약 20%인 5000만 대가 출하될 것으로 예측하며, 2027년에는 전체의 60%인 1억 6700만 대가 출하될 것으로 본다. 이미 지난해 12월 인텔 코어 울트라가 출시되며 신제품 노트북이 AI PC로 판매되기 시작했고, 인텔은 2025년까지 약 1억 대의 AI PC를 출하하겠다고 발표했다.

인텔 AI PC의 핵심은 신경망 처리 장치(NPU)다. 오늘날 많은 AI는 GPU의 부동소수점 연산 처리로 구동된다. 하지만 GPU는 AI 용도가 아닌 그래픽 처리용 반도체여서 전력 효율이 크게 떨어진다. NPU는 AI 처리를 위한 반도체로 전력 및 작업 효율이 훨씬 좋다. 현재 인텔 코어 울트라 등의 AI PC는 기존처럼 CPU와 GPU는 물론 NPU까지 탑재한다.

인텔 코어 울트라 5가 탑재된 PC와 13세대 인텔 코어 i5가 탑재된 PC / 출처=IT동아

인텔 코어 울트라 5가 탑재된 PC와 13세대 인텔 코어 i5가 탑재된 PC / 출처=IT동아
인텔 코어 울트라 라인업은 13세대 인텔 코어 제품군과 비교해 UL 프로키온 AI 추론 기능과 어도비 라이트룸을 활용한 AI 사진 편집은 약 1.5배, 어도비 프리미어 프로 AI 비디오 편집 기능은 약 2.2배, 스펙 뷰포트 2020 SNX 등의 엔지니어링 기능에서는 최대 12.1배까지 성능이 차이 난다. 그러면서도 전력 효율은 에너지스타 8.0 요구사항보다 최대 64% 낮고, 마이크로소프트 팀즈 미팅 시 11% 전력을 덜 쓰는 등의 이점이 있다. GPU 성능이 좋아지면서 실사용 성능이 향상되는 부분도 있지만, AI 처리에 최적화된 NPU의 영향도 상당하다.

점차 늘고 있는 AI PC 활용, 현시점 활용도는?

현재 윈도우 11에서 쓸 수 있는 AI 기능, 클라우드에서 연산을 처리하므로 AI PC가 아니더라도 쓸 수 있다. 물론 AI PC 최적화가 적용되면 오프라인에서도 효율적으로 이런 기능들을 쓸 수 있게 된다 / 출처=

현재 윈도우 11에서 쓸 수 있는 AI 기능, 클라우드에서 연산을 처리하므로 AI PC가 아니더라도 쓸 수 있다. 물론 AI PC 최적화가 적용되면 오프라인에서도 효율적으로 이런 기능들을 쓸 수 있게 된다 / 출처=IT동아
사용자들 사이에서는 여전히 AI 기능이 시기상조라는 시각도 있지만, 윈도우 11처럼 발빠르게 AI PC 시대를 준비하는 플랫폼도 있다. 예를 들어 윈도우 11에는 코파일럿을 비롯한 다양한 AI 기능이 내장되고 있으며, 누구나 쓸 수 있다. 코파일럿은 GPT 기반의 생성형 AI로 대화를 통한 질문, 검색이나 글 작성, 이미지 콘텐츠 제작, 윈도우 기능 실행 등을 수행한다. 또 캡처 도구에는 AI 기반의 광학 문자 인식이 탑재돼 이미지 내 글씨를 복사할 수 있고, 그림판에도 AI 배경 제거나 명령어 기반의 이미지 생성형 AI 기능이 추가됐다. 이외에도 많은 AI 기능들이 단계적으로 추가될 예정이다. 현재 시점에서는 네트워크가 필수지만, 추후 NPU에 최적화되면 장치 자체에서 수행한다.

올해 말이면 오프라인 AI PC에서 쓸 수 있는 AI 기능들이 많아질 전망이다 / 출처=마이크로소프트

올해 말이면 오프라인 AI PC에서 쓸 수 있는 AI 기능들이 많아질 전망이다 / 출처=마이크로소프트
아울러 챗GPT나 클로드AI, 라마(Llama), 구글 재미나이 같은 언어 모델을 개발하는 조건에도 앞으로는 AI PC가 더 유리해질 것이다. AI 개발 자체는 이전 세대 고성능 PC로도 할 수 있지만 전력 효율이 떨어진다. 가벼운 작업이고, 전력 효율까지 고려한다면 NPU를 내장한 AI PC에서의 작업이 더 유리하다. AI 기업 업스테이지는 지난 2월, LG전자와 손을 잡고 자체 언어모델 ‘솔라’를 LG 그램에서 온디바이스 AI로 적용하겠다는 발표도 했다. 올해 혹은 내년에는 챗 GPT같은 언어모델을 오프라인 AI PC에서도 쓰게 될 전망이다.

추후 PC 생태계는 AI인가, AI가 아닌가로 나뉠 것

지금까지 PC 성능을 결정짓는 요소는 컴퓨터의 처리 성능이었다. 하지만 AI PC 시대가 도래한 시점부터는 PC 성능은 물론 얼마나 많은 AI 기능과 소프트웨어를 지원하는지도 중요해질 것이다. AI PC 생태계가 올해 막 시작된 만큼 여전히 보여줄 게 많진 않으나, 챗GPT가 보여준 것처럼 PC 기반 작업에서 기대 이상의 결과와 혜택을 제공할 것이다. 이를 누리려면 새 PC를 살 때 NPU를 탑재한 AI PC를 선택하는 게 합당하다.

인텔은 오는 2025년까지 1억 대 이상의 PC에 AI 기능을 제공하겠다는 목표를 세웠다 / 출처=인텔

인텔은 오는 2025년까지 1억 대 이상의 PC에 AI 기능을 제공하겠다는 목표를 세웠다 / 출처=인텔
이미 인텔은 물론 AMD에서도 라이젠 AI 엔진을 탑재한 노트북을 출시했고, 퀄컴 역시 올해 중 스냅드래곤 X 엘리트 기반의 AI PC를 출시한다. 애플 역시 하반기 중 AI 기능을 내재한 차세대 애플 실리콘으로 매킨토시 라인업을 재단장할 예정이다. 과거 어도비가 크리에이티브 클라우드를 도입하면서 소프트웨어 생태계가 SaaS 중심으로 재편된 것처럼, PC 업계 역시 AI PC로 나아가는 것이다.

단순히 마케팅 용어라며 경계하는 시각은 있다. 그럼에도 불구하고 AI는 여러 분야에서 제 기능을 증명했고, 발 빠른 이들은 이미 챗GPT를 비롯한 생성형 AI의 활용법과 시각을 공유하며 우위에 서고 있다. 여전히 많은 기능이 AI PC가 아닌 일반 PC로도 구현이 되지만, 변곡점을 지나면 AI PC의 활용도가 우세해질 것이다. AI PC의 세계는 누구에게나 열려있고, AI PC를 통해 더 많은 일들을 할 수 있다. 올해가 지나면, 더 이상 AI PC는 선택이 아닌 필수가 될 것이다.

IT동아 남시현 기자 (sh@itdonga.com)

[출처] https://n.news.naver.com/mnews/article/020/0003558763

Loading

7 4월 2024

[알아봅시다] 2024년 AI 업계를 달굴 핫 키워드 LAM(대규모 행동 모델)

[알아봅시다] 2024년 AI 업계를 달굴 핫 키워드 LAM(대규모 행동 모델)

[그림 1] LAM을 상상한 이미지 (출처 : 미드저니)

“2024년엔 진정한 에이전트(Agent, 복잡한 동적인 환경에서 목표를 달성하려고 시도하는 시스템)가 몰려온다.”

2023년은 대규모 언어 모델(LLM, Large Language Model, 이하 LLM) 기반의 생성형 AI(Generative AI)가 큰 물결을 일으켰던 해였습니다. 이제 AI는 이메일 작성, 이미지 생성, 검색, 코딩 등 다양한 분야에서 빼놓을 수 없는 기술로 자리 잡았는데요. 2024년, AI 업계에는 또 다른 물결이 일 것으로 보입니다. 바로 대규모 행동 모델(LAM, Large Action Model, 이하 LAM)입니다. LAM은 문자 그대로 사용자 행동 패턴을 학습해 웹과 앱을 직접 작동시킬 수 있는 AI입니다. LLM이 문장과 그림, 비디오 등을 생성하는 데에 특화돼 있다면, LAM은 언어적 유창성과 독립적 작업 수행 능력을 결합해 단순히 무언가를 생성하는 데 그치지 않고 직접 작업을 수행하며 인간을 대신해 줄 에이전트입니다.

이번 글에서는 LAM 기반의 제품 사례와 LAM의 등장으로 바뀔 미래 모습 그리고 LAM의 특징에 대해 살펴보겠습니다.

래빗 R1으로 본 디바이스의 미래

[그림 2] 래빗 R1의 스펙 : LAM, 음성인식, 컴퓨터 비전을 제공 (출처 : 래빗)

미국 라스베이거스 컨벤션센터에서 지난 1월 9일부터 12일까지 열린 세계 최대 IT 박람회 ‘CES 2024’에서 ‘래빗(Rabbit) R1(이하 래빗 R1)’이 AI 업계의 눈길을 끌었습니다. ‘래빗 R1’의 가격은 199달러로, 저렴한 대신 2.88인치의 터치스크린과 회전식 카메라, 휠로 움직이는 물리 버튼 등 장치 곳곳에 비용을 줄인 흔적이 있습니다. 프로세서는 2.3GHz 미디어텍(Media Tek)을 사용했고, 4GB 메모리에 128GB 스토리지를 장착했습니다. 또한 ‘래빗 R1’의 온스크린 인터페이스는 음악, 교통, 화상 채팅 등 카테고리별 카드로 구성된 것이 특징입니다.

현장 테크 관계자들의 미래 기술을 엿보았다는 평가와 함께, ‘래빗 R1’은 2024 CES에서 1만대 판매를 기록했습니다. ‘래빗 R1’은 LAM 기반으로 작동하는 자체 운영체제인 ‘래빗OS’를 탑재했는데요. 웹사이트, 앱, 플랫폼, 데스크톱 상관없이 서비스를 작동할 수 있는 콘트롤러의 역할을 합니다. ‘래빗 R1’을 활용해 음악을 재생하고, 식료품을 구매할 수 있으며, 문자 메시지를 보낼 수 있습니다. 예를 들어, 휴대폰으로 택시를 부른다면 우리는 앱을 열어 위치를 입력하고 차량을 확인한 뒤 기사를 호출해야 하는 등 수많은 클릭을 해야 하는데요. ‘래빗 R1’은 음성만으로 곧바로 택시를 호출할 수 있습니다.

[그림 3] ‘래빗 R1’에서 음성으로 피자를 주문하는 모습 (출처: 래빗)

‘래빗 R1’이 즉석에서 앱을 작동시킬 수 있는 이유는 사용자의 앱 사용 패턴을 AI가 학습했기 때문입니다. ‘래빗 R1’은 택시 호출 앱의 아이콘 모습, 주문 시점, 검색 메뉴, 위치 등을 학습했습니다. 아울러 ‘래빗 홀(Rabbit Hole)’이라는 웹 포털을 통해 다양한 작업을 수행할 수 있도록 지원하는데요. 음성 인식 기능을 갖춰 음성만으로 앱을 제어할 수 있고, 전용 트레이닝 모드로 각종 앱을 직접 훈련시킬 수 있습니다.

이런 디바이스가 현실 세계를 얼마나 파고들지는 알 수 없으나, 테크 업계에서는 이를 또 하나의 혁신적인 이벤트로 받아들였습니다. 챗GPT가 2023년 11월에 LLM이라는 새로운 세상을 열었듯, ‘래빗 R1’이 LAM의 시대를 여는 게 아니냐는 기대를 품고 있습니다. 아직은 단정 짓기 어렵지만 디바이스에 LAM이 부착되면 모든 행동이 자동화될 가능성이 큽니다.

인터넷을 바꿀 어뎁트의 ACT-1 LAM

[그림 4] 어뎁트 ACT-1이 부동산 사이트를 작동시키는 모습 (출처 : ADEPT)

오픈AI에서 부사장으로 근무했던 데이비드 루안이 2022년 창업한 스타트업 어뎁트(ADEPT, 이하 어뎁트)도 있습니다. 어뎁트는 얼마 전 LAM 모델인 액션트랜스포머 ‘ACT-1’을 런칭했습니다.

‘ACT-1’은 디지털 도구를 사용할 수 있도록 훈련된 대규모 트랜스포머입니다. 특히 웹 브라우저 사용법을 학습해 주목을 받았는데요. 현재 ‘ACT-1’은 크롬 확장 프로그램에 연결돼 있습니다. 브라우저에서 일어나는 태스크(task, 작업 단위의 실행 단위)를 모니터링하고 클릭, 입력, 스크롤 등 다양한 동작을 수행할 수 있습니다. 어뎁트는 “모델링 측면과 소프트웨어 측면 모두에서, 더 빠르게 만들 수 있는 여지가 충분하다. 앞으로 인터넷에서 벌어질 일들은 사람이 거의 감지할 수 없을 것이고, 사용자가 원하는 것들은 입력 없이 실시간으로 이뤄질 것이다.”라고 설명했습니다.

1.png
[그림 5] ACT-1에서 스프레드시트를 작동시켜 가게 별 영업 마진을 보여 달라고 요청해 엑셀을 정렬시킨 모습 (출처 : ADEPT)

현재 어뎁트의 ‘ACT-1’은 위젯 형태의 챗봇으로 사용 가능합니다. 사용자가 해당 웹페이지에서 원하는 것을 입력하면 ‘ACT-1’이 알아서 나머지를 처리하는 방식인데요. 예를 들어, 부동산 웹페이지인 레드핀(Redfin.com)에 접속해 원하는 매물을 찾는다고 가정하겠습니다. 그동안 매물을 찾을 땐 사람이 직접 원하는 가격대, 지역, 방 개수 등을 입력한 검색 결과로 판단해야 했는데요. ‘ACT-1’의 위젯 형태의 챗봇은 사용자가 원하는 조건을 입력하기만 하면 원하는 매물을 콕 집어서 추천합니다. 10회 이상 클릭해야 찾을 수 있던 부동산 매물 검색을 이제 문장 입력 한 번에 해결할 수 있게 된 것입니다.

더 놀라운 점은 생산성 도구에도 ‘ACT-1’을 사용할 수 있다는 사실입니다. 예를 들어 스프레드시트를 작업하려면 수많은 클릭과 수많은 입력이 필요하고, 스프레드시트의 고급 기능을 쓰려면 별도로 함수를 배워야 했습니다. 하지만 ‘ACT-1’은 문장을 입력하는 것만으로 셀을 정렬하고 원하는 코드를 삽입할 수 있습니다. 또 지메일에 ‘ACT-1’을 부착해 사용할 경우, 예약 이메일을 자동 발송할 수 있고, 위키피디아에 부착할 경우엔 원하는 정보를 추출할 수 있습니다. 앞으로는 LAM 챗봇으로 원하는 답변만 찾아낼 수 있습니다.

인간을 대신할 AI, LAM의 특징과 미래

지금까지 살펴봤듯이, LLM과 LAM이 결합될 경우 인간의 행동을 대신할 AI 에이전트가 탄생할 수 있습니다. 일례로, 마케팅 분야에서 LLM이 카피 작성, 이미지 생성, 웹 레이아웃 생성 등의 역할을 하면, LAM은 이 과정을 자동화할 수 있습니다. 즉, 음성이나 문자 입력만으로 AI가 마케팅 자료, 고객 데이터, LLM 등에 접근해 이를 직접 다루는 게 가능해지는 것입니다. LAM의 특징은 크게 세 가지입니다.

1. 고급 데이터 처리: LAM은 방대한 데이터 세트를 처리하고 분석할 수 있습니다. 광범위한 데이터 해석이 필요한 애플리케이션에 효과적입니다.

2. 효율적인 의사 결정: LAM은 정교한 알고리즘을 통해 의사 결정 과정을 자동화합니다. AI 시스템이 더 복잡한 작업을 효과적으로 실행할 수 있도록 지원합니다.

3. 확장성과 유연성: LAM은 확장성이 매우 뛰어납니다. 간단한 자동화부터 복잡한 문제 해결까지 다양한 앱에 적용할 수 있습니다.

이와 같은 특징을 가진 LAM을 챗봇에 접목한다면 어떻게 될까요? 현재 자동차 판매 사이트에 부착된 AI 챗봇은 학습한 데이터를 기반으로 사용자 질문에 답변하지만, LAM을 결합한 챗봇은 소비자가 원하는 차량을 판별해 예약 주문까지 수행합니다. 즉, 개인화가 가능해지는 건데요. 사용자의 인터넷 활용 패턴을 학습해 일상 업무를 자동화할 수도 있습니다. LLM이 은행 대출 초안을 작성했다면, LAM은 은행에 대출 서류를 발송하는 일까지 대신하게 되는 것이죠.

LAM 기술은 휴먼 컴퓨터 인터페이스(HCI, Human Computer Interface, 사람의 음성, 뇌파, 근육, 동작 등을 기계가 인식하는 것) 영역을 크게 뒤바꿀 것으로 보입니다. 지금까지 컴퓨터와의 상호작용은 그래픽 유저 인터페이스(GUI, Graphical User Interface, 사용자가 컴퓨터와 정보를 쉽게 교환하고 상호 작용하기 위해 아이콘 등과 같은 그래픽을 이용한 사용자 인터페이스)를 통해 이뤄졌는데요. 버튼의 위치, 하위 레이어의 위치 등을 알고, 이를 작동하기 위해 직접 사람이 움직여야 했습니다. LAM과같이 복잡한 소프트웨어는 시간을 들여 학습해야 하기 때문에 초기에는 오히려 구식으로 느껴질 수 있습니다. 하지만 앞으로의 LAM 기술은 초보자도 전문 지식 없이 자유자재로 사용할 수 있고, 고령자나 장애인도 디지털 장벽 없이 소프트웨어를 작동할 수 있도록 만들 것입니다. LAM이 AI 에이전트의 서막이라고 불리는 이유입니다.

[출처] https://www.lgcns.com/blog/it-trend/52597/

Loading