콜린스와 메리엄 웹스터 등 해외의 유명 사전들은 올해의 단어로 각각 ‘바이브 코딩(wibe coding)’과 ‘슬롭(Slop)’을 선정했다. AI가 이제는 전문 영역을 넘어 일상에 파고들었다는 증거로 볼 수 있다.
AI타임스도 올 한해를 정리하며 대표적인 AI 키워드를 뽑아봤다. 이를 통해 올해 기술 트렌드를 되돌아본다. 그리고 이는 2026년에도 주요한 어젠다가 될 가능성이 크다.
1. 에이전트(Agentic)
AI가 단순한 챗봇을 넘어 인간을 대신해 업무를 자동화해 줄 것이라는 기대감이 반영된 단어다. 올해 초에는 샘 알트먼 오픈AI CEO도 연말쯤 에이전트가 기업에 본격 투입될 것으로 봤다. 그리고 월 2만달러의 사용료를 부과할 것이라는 말까지 나왔다.
그런 에이전트는 아직 등장하지 않았다. 현재는 상담사를 대신하는 정도로, 대부분은 테스트 단계로 볼 수 있다. 그리고 이 용어는 이제 AI 자체를 뜻하거나 마케팅용으로 활용되고 있다.
더 중요한 것은 에이전트 역할을 수행하기 위해서는 모델 성능의 향상은 물론, 기존 워크플로우의 적용과 기업 문화와의 충돌, 거버넌스 등의 문제를 해결해야 한다는 점이 드러났다는 것이다. 기술의 완성도보다 비즈니스 통합 난이도가 AI 확산의 병목이 된다는 교훈을 얻은 해였다.
내년에도 에이전트는 업계의 화두가 될 것으로 보인다. 또 이는 모델이 성능 자체만큼이나 애플리케이션으로서의 유용성이 점점 중요해질 것을 예고한다.
2. 바이브 코딩
AI가 현실 문제 해결에 가장 큰 도움을 준 사례로 꼽을 수 있는 것이 바로 AI 코딩이다. 즉, 바이브 코딩이 인기를 끈 것은 AI의 가장 성공적인 사례로 꼽혔다는 것으로 볼 수 있다.
연초부터 빅테크의 수장들이 자체 업무에 이를 적극 도입했다고 밝혔고, 이 영향으로 마이크로소프트가 코더 수천명을 해고하는 일까지 일어났다.
AI는 글쓰기처럼 추상적인 분야보다는, 정확한 답이 있고 이를 자체적으로 검증할 수 있는 수학이나 코딩 등에 강할 수밖에 없다. 이에 따라 AI 코딩의 성능은 앞으로도 크게 발전할 가능성이 크다. 그리고 이는 성공적인 에이전트 사례로 확장될 가능성이 크다.
3. 데이터센터
지난해까지 주요 AI 업체가 ‘모델’ 중심으로 움직였다면, 올해는 ‘인프라’에 집중했다. 1월부터 오픈AI는 ‘스타게이트’라는 초대형 프로젝트로 포문을 열었으며, 1년 내내 관련 발표를 내놓았다. 빅테크들도 일제히 투자 확대를 선언했다.
이는 첨단 모델 개발을 위한 컴퓨팅 확보라는 측면과 동시에 폭발적인 사용자 확대에 따른 추론(inference) 능력, 즉 서비스 확대라는 측면이 반영돼 있다.
이와 맞물려 에너지 문제도 크게 주목받았다. 동시에 엔비디아는 세계에서 가장 가치가 높은 기업으로 올라섰다. 미국과 중국과의 기술 갈등의 핵심도 데이터센터를 이루는 칩이었다.
또 이는 ‘AI 버블’ 논란의 핵심이 됐다. 이제는 우주 데이터센터까지 거론되고 있다.
이제 인프라 구축은 일부 빅테크의 문제를 넘어, 소버린 AI라는 추세를 타고 전 세계로 확대되고 있다. 국내도 알트먼 CEO와 젠슨 황 CEO가 잇달아 방문, 데이터 센터와 GPU 공급을 약속했다.
(사진=메타)
4. 초지능(Superintelligence)
인공일반지능(AGI)에 대한 논의는 올해에도 활발했다. 이미 일부 분야에서는 AI가 인간의 능력을 넘어섰다는 분위기가 형성됐으며, 오픈AI 등은 이를 넘어 ‘초지능’을 새로운 목표로 내세웠다.
특히, LLM으로는 AGI에 도달하기 어렵다는 점이 자주 지적됐다. 이 때문에 월드 모델이 보완책으로 제시됐다. 얀 르쿤 메타 전 수석 과학자까지 합류, 내년에는 이 분야에서도 빠른 발전이 기대된다.
초지능과 관련해 가장 눈길을 끌었던 것은 메타가 MSL을 설립한 것이다. 이름부터 ‘메타 초지능 연구실(meta superintelligence lab)’로, 이를 조직하기 위해 막대한 자금을 퍼부으며 인재 경쟁에 불을 댕겼다. 이 때문에 일부 AI 연구원들은 프로 스포츠 스타에 맞먹는 몸값을 기록했다.
5. 추론(reasoning)과 강화 학습(RL)
추론은 지난해 출시된 오픈AI의 ‘o1’으로 새로운 AI 성능 향상의 기준이 됐다. 이는 AI 모델의 학습을 위한 데이터 고갈과 스케일링 법칙의 한계를 넘는 돌파구로 여겨졌다.
모델 학습 측면에서는 RL이 새로운 대세가 됐다. 이는 에이전틱 AI를 위해서도 핵심 메커니즘으로 꼽힌다.
AI 전문 기술 용어로 유행이 된 것으로는 ‘증류(Distillation)’와 ‘전문가 혼합(MoE)’ 등을 꼽을 수 있다. 이는 올해 초 세계적인 충격을 안겼던 딥시크의 핵심 기술이라는 점 때문에 부각됐다.
이는 또 오픈 소스가 주류로 올라서는 기반을 마련했다. 특히 중국의 모델은 이제 미국을 따라잡았다는 평가를 받을 정도로 성장했다.
6. 피지컬 AI (Physical AI)
AI의 최종 애플리케이션으로 꼽히는 휴머노이드 로봇은 올해부터 본격적인 과대광고가 시작됐다. 일론 머스크 CEO는 테슬라를 로봇 회사로 광고했고, 정부의 드라이브로 중국에서는 로봇 체육대회와 화려한 데모 영상이 쏟아졌다. 엔비디아도 이런 흐름에 기름을 부었다.
물론, 휴머노이드는 두뇌 역할을 하는 AI의 완성은 물론, 엔지니어링 문제 해결과 비용 효율 등이 모두 해결돼야 한다. 단기간의 확장은 무리라는 평이다.
하지만 이는 산업 현장에 AI와 디지털 트윈, 엔지니어링의 결합을 통한 자동화, 즉 피지컬 AI를 화두로 끌어 올렸다. 광범위하게는 자율주행도 여기에 포함된다.
피지컬 AI는 앞서 언급한 AI의 추론과 멀티모달 모델, 월드 모델, 에이전틱 AI 등과 연결된다. 특히 올해는 텍스트를 넘어 이미지, 비디오, 음성 등 모든 데이터를 이해하고 생성하는 멀티모달 모델이 보편화된 해로 볼 수 있다.
이는 앞으로도 몇년간 중요하게 다뤄질 것으로 예상된다. 이는 AI를 실물 경제와 통합하는 핵심이기 때문이다.
7. AI 정신병과 아첨
올해는 AI의 정확도 말고도 사용자에게 미치는 ‘영향’이 강조됐다. AI 챗봇 사용자의 폭발적인 증가에 따라 이제까지 숨겨진 문제가 드러난 것이기도 하지만, 수익 확대를 위한 사용자 참여 확대를 위해 모델을 손 본 AI 기업의 탓이 크다.
지난해에는 챗봇이 청소년의 자살을 유도했다는 사례가 처음 등장한 데 이어, 올해에는 아부와 망상 부추김 등이 잇달아 보고됐다.
이 문제는 AI 기업이 연구실에서 서비스 기업으로 확장 중이라는 것을 보여주기도 한다. 사용자가 9억명을 넘어서며, 과거 소셜 미디어 등이 겪었던 문제를 반복하는 것으로 볼 수 있다.
또 이제까지는 환각이나 편향 등 기술적인 문제로 치부했던 AI의 문제를 사회적인 차원으로 끌어 올린 것으로 볼 수 있다. 즉, AI 안전 문제가 인류 멸망과 같은 극단적인 디스토피아에 머물지 않고 규제 등의 논의를 이끈 구체적인 사례다.
(사진=과기정통부)
8. 국가대표 모델
국내에서는 독자 AI 파운데이션 모델 즉, ‘국가대표 모델’ 선정이 최고의 이슈였다. 지난해부터 거론됐던 이 프로젝트는 새 정부 출범으로 본격화했고, 지난여름 내내 화제가 됐다. 그 결과, 5개의 컨소시엄이 선정됐다.
기업들은 국가대표라는 타이틀을 놓치지 않기 위해 애를 썼다. 선정 직전에는 기업들이 일제히 자체 모델을 선보였다. 지난 몇년간 국내에서 출시된 모델보다 올해 선보인 모델이 더 많다고 꼽힐 정도였다.
이처럼 이번 프로젝트는 미국이나 중국에 비해 잠잠하던 파운데이션 모델 출시에 불을 댕겼고, 기업의 기술 경쟁을 유발했다는 점에서는 긍정적으로 볼 수 있다.
앞으로 등장할 국대 모델의 성능은 물론, 활용성이 더 중요하다. 글로벌 프론티어 모델이나 해외 오픈 소스에 맞서 경쟁력을 확보할 수 있을지의 문제다.
하지만, 올해 국내 AI 업계에 실질적인 영향을 미친 것은 B2B 중심의 버티컬 AI로 볼 수 있다. 산업별 특화 LLM을 통해 금융과 제조, 헬스케어 등 특정 도메인의 문제를 해결하는 데 집중했다. 범용성보다는 전문성으로 이동했다고 보는 것이 맞다.
소비자 시장에서는 ‘제타’나 ‘크랙’ 등 캐릭터 챗봇이 젊은 층을 중심으로 상업 성공의 조짐을 보였다.
또 정부는 국내의 AI 반도체(NPU) 스타트업을 중심으로 소버린 AI 전략을 결합해 하드웨어 국산화를 위해 드라이브를 걸었다.
9. 기타 – AI의 경계 확장과 충돌
올해 AI 챗봇의 폭발적인 성장을 견인한 것은 이미지 생성 기능이었다. 지난 3월 챗GPT의 ‘지브리 스타일’과 9월 구글의 ‘나노 바나나’ 등이 주인공이다.
이는 기존 모델의 성능에 집중하던 AI 업계의 분위기에도 큰 영향을 미쳤다. 오픈AI는 이달 초 ‘코드 레드’를 발령했는데, 여기에는 사용자의 챗봇 활용 경험을 개선하는 데 집중하는 것이 목표로 제시됐다. 그리고 새로운 이미지 생성 모델도 내놓았다.
이처럼 AI로 생성한 이미지와 영상은 AI 슬롭이라는 단어를 만들어 냈다. 오픈AI의 동영상 생성 앱 ‘소라’의 인기와 메타의 ‘바이브’ 출시 등이 이를 부채질했다.
저작권에 대한 논쟁도 거세졌다. 특히 앤트로픽은 업계에서 처음으로 저작권을 인정하는 소송 합의안을 내놓았다. ‘공정 사용(Fair Use)’은 내년에도 쟁점 사항이 될 것으로 보인다.
‘검색 엔진 최적화(SEO)’에 이어 ‘생성 엔진 최적화(GEO)’라는 용어가 등장한 것도 두드러졌다. 이는 20여년이 넘도록 정보 획득의 주요한 방법으로 자리 잡은 검색이 이제는 AI 챗봇으로 이동하고 있다는 것을 보여주는 사례이기 때문이다.
이 밖에도 ‘AI 안경’으로 대표된 웨어러블도 주목할 만하다. 특히 오픈AI가 챗GPT 전용 장치를 준비 중으로, 이는 내년의 주요 키워드로 떠오를 가능성이 크다.
‘인생은 고통’이라는 점을 받아들이고 나면 편해진다는 이야기가 있다. 인생은 오직 고통으로만 가득 차 있다는 이야기가 아니라 삶에는 물론 좋은 일도 가득할 수 있지만 그렇지 않은 일들도 존재하기에 그런 다양한 가능성을 어느 정도 덤덤하게 받아들일 수 있어야 한다는 이야기다.
누구나 생로병사의 고통을 겪는 것은 당연하고 그 외에도 아마 생기지도 않을 일들로 인해 과하게 걱정하고 불안해하며(예를 들어 만약 XX하면 어떡하지?), 진실과 거짓을 잘 구분하지 못하고 허상을 좇는(예를 들어 XX만 있으면 행복해질 거야) 우리 마음의 경향 때문에 생기는 고통도 적지 않다.
또 자신의 잘못은 쉽게 합리화하면서 타인의 흠은 쉽게 판단하는 경향 역시 많은 고통을 만들어 낸다. 내 집단을 편애하고 외집단은 배척하는 편향, 또 내가(우리 집단이) 무조건 옳다고 우기는 편향으로 인해 많은 집단 간 갈등과 차별, 소외, 폭력이 발생하기도 한다.
그래서 결국 세상사 대부분의 문제는 내적·외적 과정을 아울러 ‘사람’의 문제라고 이야기되기도 한다. 우리가 ‘인간’인 한, 우리의 삶과 세상에는 많은 문제가 존재할 수밖에 없다는 것이다.
삶의 즐거운 일들은 고통에서 멀리 떨어져 있을 것 같지만 안타깝게도 사실은 많은 즐거움이 그 자체로 고통의 원인이 되기도 한다. 소중하기 때문에 집착하고 걱정한다(예를 들어 자식 걱정).
사람이든 목표이든 소중한 만큼 잃었을 때의 상실감 또한 크고 심한 경우 삶을 무너뜨리기도 한다.
명절날 가족 모임을 괴로워하는 정도가 지구에서 가장 심하다는 한국인들은 특히 공감할 수 있겠지만 포기할 수도 쉽게 연을 끊을 수도 없는 대상들로 인해 평생 짊어지게 되는 고통 또한 적지 않다.
사랑하는 만큼 증오하고 그럼에도 여전히 사랑받고 싶어 하는 복잡한 마음을 많은 사람들이 경험한다. 결국 인생은 고통이라는 말에 고개가 절로 끄덕여지는 이유다. 그럼에도 불구하고 많은 사람들은 인생에 이런저런 고통이 포함돼 있다는 사실을 받아들이지 않으려 한다.
이 생각에는 크게 두 부류가 있는데 하나는 불행은 ‘그럴 만한 사람들’, 열심히 살지 않았거나 착하게 살지 않은 사람들에게만 찾아오고 열심히·착하게 산 자신에게는 오지 않을 것이라고 믿는 경우다. 세상이 공정하다는 믿음(공정한 세상 신념)처럼, 삶의 다양한 고통을 어떤 잘못에 대한 ‘벌’로 여기는 인식이 여기에 해당한다.
반대로 인생은 고생의 연속이지만 결국 고생 끝에 낙이 온다는 식으로 고통을 반드시 극복해야 할 통과의례로 바라보는 시각도 있다. 이런 경우 어려움을 겪는 사람을 ‘그럴 만한 사람’으로 쉽게 판단하지는 않지만 그 어려움을 끝내 극복하지 못한 사람에게는 경멸적인 시선을 보내는 경향이 나타난다.
예를 들어 아메리칸 드림이나 자수성가 신화에 깊이 빠진 사람들의 경우 그렇게 성공하지 못한 이들을 능력·성실성·도덕성이 부족한 사람으로 여기고 연민 또한 덜 느끼는 경향이 있다는 연구들도 있다.
하지만 앞서 말했듯 인간의 삶과 고통은 다양한 방식으로 얽혀 있다. 과하게 걱정하고 불안해하며 집착하고 허상을 좇는 우리의 마음 자체가 이미 큰 고통을 만들어 내지만 지긋지긋한 인연들처럼 우리가 어찌할 수 없는 요소들에서 비롯되는 고통 또한 적지 않다.
여기에 언제든 누구에게나 닥칠 수 있는 천재지변, 질병, 경제난 같은 문제들, 더 나아가 역사적·사회문화적 요인까지 고려하면 삶은 우리가 통제할 수 없는 다양한 고통으로 가득 차 있다.
내가 점심을 먹었다고 해서 세상에서 기아가 사라지는 것은 아니다. 마찬가지로 내가 겪지 않는다고 해서 그러한 고통이 존재하지 않는다고 단정하는 것도 바람직하지 않다.
적어도 한 해를 마무리하는 이 시기만큼은 다양한 고통을 판단하거나 재단하기보다 조금 더 너그러운 시선과 자비로운 마음으로 바라보는 것이 좋지 않을까.
※필자소개 박진영 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.
이전 포스트에서 테스트 해봤던 Ollama를 쫌 더 다양하게 활용하기 위해 Python에서 사용하는 실습을 진행해보았다. 이번에는 예제 코드를 활용한 간단한 기능한 구현해보고 앞으로 HuggingFace 모델 가져오기, LangChain과 함께 사용하기 등 추가 실습을 더 진행해볼 예정이다.
실습은 파이썬 가상환경을 만들어서 진행했고, 한국어로 사용할 수 있는 모델을 찾기 위해서 여러 모델들을 테스트 해보았다. 한국어 채팅은 Gemma의 성능이 가장 좋았다. 아래 실습에서는 여러 모델을 섞어서 진행하겠다.
Llama2
Mistral
Solar
Gemma
구글의 Gemma만 제대로된 답변을 주고 있다. (역시 따끈따끈한 모델..) Solar는 한국에서 만들었는데(Upstage) 학습할 때 한국어 데이터셋을 많이 안 포함 시킨 건지 왜 성능이..? (10.7B size 기준)
.
.
.
우선 Ollama를 설치한다. (가상환경에서 진행하므로 이전에 terminal에서 설치해 준 것과 무관하게 다시 설치해줘야 한다)
import ollama
ollama.pull('llama2')
ollama를 import하고 모델을 설치해준다. 터미널에서 ollama run gemma를 통해 모델을 다운로드하고 바로 실행할 수 있지만, python에는 모델을 pull해온다. ollama.list()를 통해서 설치한 모델 리스트를 확인할 수 있고 ollama.delete('llama2')를 통해 모델을 삭제할 수도 있다.
response = ollama.chat(model='solar', messages=[{'role':'user','content':'Why is the sky blue?',},])print(response['message']['content'])
content에 input prompt를 작성하면 답변이 생성된다. model을 바꿔가면서 테스트해봤는데, 모델에 따라서 답변의 길이, 응답 특성 등이 살짝씩 달랐다.
임베딩 벡터 얻기 + 검색(with ChromaDB)
Ollama에 이 기능이 공개된 건 꽤 최근인 것 같은데, 답변을 출력할 뿐만 아니라 답변의 embedding vector를 제공한다는 것이다. 공식 문서에서는 RAG를 구축하는데 사용할 수 있다고 설명하고 있고 (1)임베딩 (2)DB저장 (3)검색 (4)답변생성 의 과정을 실습해볼 수 있는 예시를 제공한다. 코드는 모두 Ollama에서 제공한 것이며, 사용 모델만 내가 설치한 모델로 바꿔서 진행하였다.
ollama.embeddings(model='mistral', prompt='The sky is blue because of rayleigh scattering')
위 코드를 실행하면 출력 결과로 답변과 함께 embedding vector가 나온다.
다음으로는 Ollama와 ChromaDB를 각각 사용해서 임베딩 벡터를 생성하고 저장한 뒤 검색하는 과정을 진행해보겠다.
pip install chromadb
우선 ChromaDB를 설치한다.
import ollama
import chromadb
documents =["Llamas are members of the camelid family meaning they're pretty closely related to vicuñas and camels","Llamas were first domesticated and used as pack animals 4,000 to 5,000 years ago in the Peruvian highlands","Llamas can grow as much as 6 feet tall though the average llama between 5 feet 6 inches and 5 feet 9 inches tall","Llamas weigh between 280 and 450 pounds and can carry 25 to 30 percent of their body weight","Llamas are vegetarians and have very efficient digestive systems","Llamas live to be about 20 years old, though some only live for 15 years and others live to be 30 years old",]
client = chromadb.Client()
collection = client.create_collection(name="docs2")# store each document in a vector embedding databasefor i, d inenumerate(documents):
response = ollama.embeddings(model="mistral", prompt=d)
embedding = response["embedding"]
collection.add(
ids=[str(i)],
embeddings=[embedding],
documents=[d])
documents에는 임베딩을 진행한 문서를 넣어주고, embedding model은 mistral을 사용했다. 데이터양이 적어서 금방 실행된다.
# an example prompt
prompt ="What animals are llamas related to?"# generate an embedding for the prompt and retrieve the most relevant doc
response = ollama.embeddings(
prompt=prompt,
model="mistral")
results = collection.query(
query_embeddings=[response["embedding"]],
n_results=1)
data = results['documents'][0][0]
prompt에 질문을 넣어주면 해당 질문의 답변을 얻을 수 있는 가장 유사한 문장을 documents에서 찾는다. (embedding vector로 가장 유사도가 높은 문장을 찾는 걸로 알고 있는데, 정확한 방법은 알지 못한다. 추후 Langchain과 함께 사용하는 부분에 추가하겠다)
output = ollama.generate(
model="mistral",
prompt=f"Using this data: {data}. Respond to this prompt: {prompt}")print(output['response'])
가장 유사성이 높은 문장을 찾아오는 것까지도 유용하지만, 그 문장을 가지고 다시 model에 넣어서 매끄러운 답변을 생성하는 과정이다.
여기까지 하면 거의 ChatGPT와 같은 모델을 뚝딱 만들어 낸 것이다! 좀 더 많은 기능들을 붙이거나 미세한 조정(chunk size 조정 등) LangChain을 사용하는 것이 유용하겠지만, 이렇게 간단한 작업은 각각 불러와서 진행해도 충분할 것 같다.