23 9월 2023

[사회과학] [박진영의 사회심리학] 실천 없는 ‘무지성’ 믿음은 해롭다

[사회과학] [박진영의 사회심리학] 실천 없는 ‘무지성’ 믿음은 해롭다

[박진영의 사회심리학] 실천 없는 ‘무지성’ 믿음은 해롭다

입력

잘될거라는 믿음만으로는 성공하기 어렵다. 게티이미지뱅크 제공

간절히 원하면 온 우주가 도와준다거나 잘 될 거라고 생각해야 실제로 잘 된다는 등 많은 대중서와 자기계발 연사들이 긍저적 사고의 중요성에 대해 이야기해왔다. 이렇게 나의 내적 사고방식이 외부 세계로 전달되어 어떤 실체가 있는 효과를 일으킬 것이라는 믿음은 생각보다 흔히 나타난다.

예컨대 내가 경기를 보면 꼭 지니까 안 보겠다고 하는 것이나 행운의 색깔 등에 대한 믿음, 어떤 우주적 ‘기운’에 대한 믿음과 내가 그 흐름을 바꿀 수 있다고 하는 믿음 등 많은 이들이 ‘마음’에 어떤 초자연적인 효과가 생각하는 듯한 경향을 보인다.

물론 긍정적인 믿음이 어떤 자기 예언적 효과를 나타내는 경우도 존재한다. 예컨대 자신은 할 줄 아는 게 아무 것도 없으며 사람들은 모두 다 자신을 싫어한다는 믿음을 갖고 있는 경우 어떤 일을 시작하거나 새로운 관계를 만나려는 노력조차 하지 않는 경향을 보인다. 어차피 해도 안 될거라고 생각하기 때문이다.

따라서 노력하면 할 수 있을 거라고 내가 잘 할 수 있는 게 존재하고 나와 잘 맞는 사람도 어딘가에 있을 거라는 믿음이 도움이 될 수 있다. 하지만 문제는 이렇게 내가 노력을 해본다던가 새로운 기회나 잘 맞는 사람을 찾아보는 것처럼 실천 가능한 범위를 넘어서 간절히 바라기만 하면 꿈이 현실이 될 것이라고 보는 ‘실천’과 멀리 떨어진 긍정적 사고는 되려 해로울 수 있다는 것이다.

호주 퀸즐랜드대의 연구자 루카스 딕슨과 동료들은 이렇게 단지 믿는 것만으로 어떤 결과를 실체화 시킬 수 있다는 믿음(belief in manifestation)에 대한 연구를 했다.

실체화에 대한 믿음을 측정하는 문항들은 “성공한 자신의 모습을 열심히 떠올리면 실제로 성공이 더 가까워진다”, “나 자신에게 긍정적인 이야기를 함으로써 성공을 이뤄낼 수 있다”, “내가 간절히 원하면 신이나 우주의 기운이 나를 돕는다”, “나의 영혼과 내가 가진 긍정직인 기운들이 성공을 끌어당긴다” 등이었다. 간절히 믿기만 하면 실제로 잘 될 거라는 믿음을 측정하는 문항들이었다.

이러한 실체화에 대한 믿음이 높은 사람들은 그렇지 않은 사람들에 비해 미래에 자신이 성공할 확률을 더 높게 보는 것으로 나타났다. 이들은 자신을 긍정적으로 바라보는 자존감 또한 더 높은 편이었다.

그런 한편 이들은 의사결정을 할 때 신중하고 이성적인 사고방식보다 어떤 영감이나 충동적으로 떠오르는 생각에 기대는 경향을 보였다. 또한 평소 자극적이고 위험한 일에 끌리는 편이라고 응답했으며 실제로 가상화폐 같은 위험 자산에 투자한 경험도 더 많이 가지고 있었다.

또한 높은 위험 추구 성향와 충동성 때문인지 실체화에 대한 믿음이 높은 사람들은 그렇지 않은 사람들에 비해 “사기”를 당한 경험 또한 더 많은 것으로 나타났다.

자신은 남들과 다르게 단기간 내에 일확천금이나 엄청난 성공을 이뤄낼 수 있을 거라는 믿음 또한 더 강했다. 하지만 안타깝게도 이들은 사업에서 망하거나 파산한 경험 또한 더 많았다.

잘 될거라고 생각하면 어떻게든 될 거라는 믿음은 긍정적인 것을 떠나 다소 무책임해 보이기도 한다. 때에 따라 개인이 무언가를 할 수 있는 상황이 아닌데도 어떤 영적인 파워를 발휘하지 못했기 때문에 망한 거라고 현실적인 범위를 넘어선 일들마저 개인의 책임으로 떠넘기는 부작용 또한 있을 것 같다.

내가 충분히 간절하지 않아서 잘 안 된 거라고 생각하고 마는 것은 실패의 진짜 원인을 찾아서 해결하는 행동과도 거리가 있어 보인다.

오직 자신이 하면 잘 될 거라는 믿음 하나로 단 몇 달 만에 별 다른 준비도 없이 시작했다가 현실이 예상과 너무 다르다며 곤혹스러워하던 사람을 본 적이 있다. 별 다른 준비도 없이 아무런 사전 지식이나 경험도 공부도 없이 그냥 자신감 하나로 밀어붙이던 일이었기 때문에 옆에서 보기에는 전혀 놀랍지 않았다.

되려 자신이 망할 가능성은 0이라고 자신했다는 점이 놀라웠다. 세상에 쉬운 일이란 없는데 자기가 하면 다 잘 될 거라는 믿음 하나로 사업을 너무 만만하게 본 것이 큰 패착이었다.

어떤 믿음이 자기실현적 예언이 되려면 거기에는 반드시 구체적인 계획과 준비, 목표 설정, 실패가 따라야 한다. 실천 없이 믿음만 가지고 잘 되기를 바라는 것은 어느 날 기적같이 초자연적인 현상이 일어나길 바라는 것에 지나지 않을지도 모르겠다.

어떤 일을 하든 항상 예기치 못한 장애물을 만나게 되는데 다 잘 될 거라고만 생각하면 정작 작은 장애물 앞에서도 크게 당황할 것 같기도 하다. 믿음이 현실이 되게 만드는 것은 오랜 준비와 지난한 노력임을 기억하자.

Dixon, L. J., Hornsey, M. J., & Hartley, N. (2023). “The secret” to success? The psychology of belief in manifestation. Personality and Social Psychology Bulletin, 01461672231181162.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다

[출처] https://n.news.naver.com/article/584/0000024385?cds=news_media_pc

Loading

21 9월 2023

[전기전자] 빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

[전기전자] 빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

입력
KIST

한국과학기술연구원(KIST)은 빛으로 작동하는 ‘다진법 메모리’를 구현할 수 있는 기술을 개발했다. 게티이미지뱅크

국내 연구진이 빛으로 작동하는 ‘다진법 메모리’를 구현할 수 있는 기술을 개발했다. 데이터 처리 속도를 획기적으로 높일 수 있는 다진법 컴퓨팅 시스템을 개발할 수 있을 것으로 기대된다.

한국과학기술연구원(KIST)은 황도경 광전소재연구단 책임연구원 연구팀이 이종수 대구경북과학기술원(DGIST) 에너지공학과 교수 연구팀과 공동연구로 새로운 0차원-2차원 반도체 인공접합 신소재를 개발하고 빛으로 작동하는 차세대 메모리 효과를 관찰하는 데 성공했다고 21일 밝혔다.

막대한 데이터를 관리하는 데이터센터는 막대한 전력을 소비한다. 전력 소비를 낮추고 연산 속도를 향상시킨 다진법 컴퓨팅 시스템이 연구되고 있다. 다진법 컴퓨팅 시스템도 기존 이진법 컴퓨팅처럼 전기신호로 작동하기 때문에 대규모 데이터 처리 수요를 감당하기에는 역부족이다.

다진법 컴퓨팅 시스템의 연산부와 저장부 간의 데이터를 전기신호가 아닌 빛을 활용해 전송하면 처리 속도를 획기적으로 높이고 전력 소비를 줄일 수 있다.

연구팀은 셀레늄화 카드뮴의 표면에 황화아연을 입힌 코어쉘 구조의 양자점과 몰리브덴황 반도체를 접합한 0차원-2차원 반도체 인공접합 신소재를 제작했다. 이 신소재를 이용하면 10나노미터(nm, 10억분의 1미터) 이하 크기의 양자점 내에 전자 상태를 저장하고 조절할 수 있다.

셀레늄화 카드뮴의 중심에 빛을 가하면 일정량의 전자가 몰리브덴황 반도체로 흘러나오고 전자의 빈 자리인 정공을 중심에 가두는 과정을 통해 신소재가 전도성을 갖게 된다. 이때 셀레늄화 카드뮴 내부는 양자화된다. 양자화는 물리량이 연속값을 갖지 않는 현상이다. 간헐적으로 가하는 빛으로 전자들을 차례로 가둬 발생하는 전계효과를 통해 몰리브덴황의 저항 변화를 유도한다.

이같은 과정을 통해 0과 1 상태만 존재하는 기존 메모리와 달리 0과 10 이상의 상태를 나누고 유지할 수 있게 된다. 황화아연 쉘은 인접한 양자점끼리 전하 누설을 방지해 단일 양자점 하나하나가 메모리 기능을 할 수 있도록 돕는다.

연구팀이 개발한 구조는 차세대 광메모리로서 활용 가능성이 있다. 다진법 메모리 현상의 효과를 신경망 모델링으로 검증한 결과 91%의 인지율이 달성됐다. 동일한 데이터셋을 실제 사람이 분류할 경우 인지율인 93.91%에 근접한 결과다.

황도경 책임연구원은 “이번에 개발한 다진법 광메모리 소자는 인공지능 시스템 등 차세대 시스템 기술 산업화를 앞당기는 데 기여할 것”이라고 말했다. 연구결과는 국제학술지 ‘어드밴스드 머티리얼즈’에 게재됐다.

Loading

17 9월 2023

[인공지능 기술] 작지만 오히려 좋아! 소형 언어 모델(sLLM)

[인공지능 기술] 작지만 오히려 좋아! 소형 언어 모델(sLLM)

01. 요즘 대세 생성형 인공지능(AI),

그리고 언어 모델

챗GPT로 대표되는 생성형 AI가 화두로 떠오른 가운데 언어 모델(Language Model)에 대한 관심도 덩달아 높아지고 있다. 언어 모델이란 대용량의 텍스트에서 언어 이해 능력과 지식을 학습하도록 훈련된 AI 모델을 일컫는다. 방대한 텍스트가 포함된 데이터로부터 정보를 추출하고 분류하는 것에서 더 나아가 직접 텍스트까지 생성해 낸다. 한 마디로 딥러닝을 통해 수많은 데이터를 미리 학습해 추론하고, 이를 문장으로 표현하며 대화를 이어나갈 수 있는 모델로서, 사실상 생성형 AI의 핵심 기술이라고 해도 과언이 아니다. 오늘날 챗GPT가 촉발한 언어 모델 경쟁은 국내로도 이어지고 있다. 국내 기업 역시 한국어 기반의 언어 모델 개발 계획을 잇따라 내놓으며 대세에 합류하는 추세다.

[그림 1] 국내 기업의 언어 모델 개발 추진 현황 (출처: KISTEP 과학기술정책센터)

세상에서 제일 유명한 생성형 AI의 대표주자, 챗GPT는 대형 언어 모델(LLM)을 기반으로 한다. 언어 모델의 크기는 통상 매개변수(파라미터) 개수에 따라 결정이 되는데 보통 1,000억 개 이상일 때 대형 언어 모델이라 분류된다. 챗GPT에 적용된 ‘GPT-3’의 매개변수는 1,750억 개이며, 구글이 개발한 ‘팜(PaLM)’의 경우 5,400억 개에 달하는 것으로 알려져 있다.

매개변수는 사람의 뇌에서 정보를 학습하고 기억하는 시냅스와 유사한 역할을 한다. 이에 이론상으로는, 매개변수의 수가 많으면 많을수록 성능이 높아지고 또 더욱 복잡하고 정교한 기능을 수행할 수 있다고 여겨진다. 내로라하는 빅테크들이 매개변수의 수를 언급하며 각자의 언어 모델에 대한 성능을 강조하는 이유도 여기에 있다.

그렇지만 과연 언어 모델에 있어 매개변수는 언제나 다다익선(多多益善)인 것일까? 해당 언어 모델이 어떤 목적으로 활용되는지에 따라 다르겠지만 그렇기 때문에 더더욱 언어 모델의 크기가 모든 경우의 유일한 해답이 되어주지는 않을 것이다. 때론 비즈니스 목표에 맞게 사전 최적화된 경량 모델을 이용하는 것이, 더욱 유리할 수도 있다는 말이다.

 

02. 떠오르는 샛별, 소형 언어 모델(sLLM)

 

이러한 배경에서 대형 언어 모델 열풍 속 소형 언어 모델(sLLM)이 등장했다. 소형 언어 모델이란 그 이름에서부터 알 수 있듯이, 대형 모델에 비해 매개변수의 수가 수십억 내지 수백억대로 비교적 크기가 작은 언어 모델을 말한다.

소형 언어 모델이 주목 받기 시작한 건 올해 초 메타의 ‘라마(LLaMA)’가 공개되고서부터다. 메타는 라마를 매개변수 개수에 따라 총 4가지 버전으로 내놓았는데, 그중 가장 작은 모델은 매개변수가 70억 개에 불과했고 가장 큰 모델 역시 650억 개로, 경쟁사들 대비 확연한 차이를 보였다. 그럼에도 메타는 이제까지와는 다른 의미로, 매개변수의 수를 강점으로 내세웠는데 개수가 적은 대신 용량을 다른 모델 대비 1/10 수준으로 낮출 수 있었기 때문이다. 이에 따라 훨씬 적은 컴퓨팅 파워가 요구돼 모바일이나 노트북으로도 활용할 수 있도록 실용성을 극대화했다고 강조했다. 게다가 메타는 이러한 장점을 더욱 돋보이게 하고자 라마를 오픈소스 형태로 공개하기도 했다.

[그림 2] 개방성과 효율성을 강조한 메타의 LLaMA (출처: Meta AI 블로그) 

구동 비용이 너무 높다는 점은 꾸준히 대형 언어 모델의 단점으로 지적돼 왔다. 한 마디로 그 크기만큼이나 훈련하고 유지하는 데 막대한 비용과 시간이 소요된다는 말이다. 구글의 팜은 4,000개의 칩으로 이뤄진 슈퍼컴퓨터 2대로 50일 이상 훈련되었고, 챗GPT의 GPT-3는 초기 훈련 비용에만 1000만 달러(약 132억 원)가 들었다. 그뿐만 아니라 챗GPT가 역대급 흥행했음에도 불구하고, 챗GPT 개발사 오픈AI는 최근 수천억 원대의 영업 손실을 기록했는데 그 원인으로 훈련 및 유지를 위한 비용이 지목됐다.

그에 반해 소형 언어 모델은 훈련에 요구되는 데이터나 시간, 비용이 상대적으로 적다는 큰 장점이 있다. 스탠퍼드대학교는 메타의 라마 중 매개변수가 가장 작은 버전(7B)을 기반으로 한 소형 언어 모델 ‘알파카 7B’를 선보였다. 알파카는 5만 2000개의 데이터를 토대로 AI 반도체를 탑재한 컴퓨터 8대를 통해 단 3시간 만에 훈련을 끝냈고, 개발에 소요된 비용은 오픈AI의 API 사용 비용 약 500달러와 라마 7B 사용 비용 100달러 안팎으로 총 600달러(약 77만 원)에 불과했다. 그럼에도 연구진에 따르면 알파카가 GPT-3.5와 질적으로 비슷한 성능을 보였다고 한다. 메일 작성, 생산성 도구 등 다양한 분야에서 GPT와 비교해 보았을 때 알파카는 90개 항목에서, GPT는 89개 항목에서 성능이 상대보다 앞섰다고 연구팀은 밝혔다.

[그림 3] 소형 언어 모델 Alpaca 7B (출처: 스탠퍼드대학교 기초모델 연구센터(CRFM) 블로그)

 

 

이를 이어 데이터 플랫폼 기업 데이터브릭스(Databricks)는 서버 1대에서 3시간 훈련해 개발한 매개변수 60억 개의 소형 언어 모델 ‘돌리(Dolly)’를 선보였고, AI 반도체 스타트업 세레브라스(Cerebras)는 매개변수 1억 개부터 130억 개 사이의 소형 언어 모델 7종을 개발해 오픈소스로 공개했다. 대형 언어 모델을 누구나 사용하기에는, 또 모든 서비스에 적용하기에는 너무 비싸고 무겁다. 이에 경량화하여 운영 비용을 줄이고 다양한 기기나 서비스에 적용하고자 하는 접근법이 하나의 트렌드로 떠오르는 추세다.

이러한 흐름에 발맞춰 구글 또한 최근 연례 개발자 컨퍼런스 ‘구글 I/O’를 통해 ‘팜2(PaLM2)’를 게코(Gecko), 오터(Otter), 비슨(Bison), 유니콘(Unicorn)의 4가지 크기로 세분화하여 출시한다고 밝힌 바 있다. 다양한 사용 사례에 맞게 모델의 크기를 선택하고 쉽게 배포할 수 있도록 한 것이다. 그중에서도 가장 규모가 작은 게코는 모바일은 물론 오프라인에서도 작동 가능한 것으로 알려졌다.

[그림 4] 다양한 규모의 언어 모델 제품군을 선보인 구글 (출처: Google 한국 블로그)

 

챗GPT가 가능한 최대한의 데이터를 끌어와 학습한, 수많은 정보를 보유하고 있는 백과사전이지만 누군가에게는 그보다 어느 한 분야에 특화된 전문 서적이 유용할 수 있다. 데이터브릭스의 CEO 알리 고드시(Ali Ghodsi)는 ‘챗GPT가 세상 모든 정보를 학습했지만, 기업은 세상의 모든 정보를 필요로 하지는 않는다. 챗GPT는 회사가 보유한 데이터를 학습한 적도 없다’라고 지적한 바 있다.

특정 산업이나 영역에 맞게 설계되고 최적화된 버티컬 AI(Vertical AI)로서 활용하기에는 소형 언어 모델이 더욱 적합하다. 비록 일상적인 대화 역량은 떨어질지라도, 학습 데이터의 깊이와 질에 따라 특정 분야에서는 대형 모델을 뛰어넘는 답변을 보여줄 잠재력이 충분하기 때문이다. 또한 다른 애플리케이션과 통합하여 사용하기에도 가볍고 유연한 모델이 더욱 효과적이다. 소형 언어 모델이 주목받게 된 가장 큰 이유이기도 하다. 미세 조정을 통해 매개변수를 줄이고 비용을 절감하며 정확도를 높이는 맞춤형 언어 모델로서 높은 활용도를 보일 것이라 기대받는다.

미국의 AI 스타트업 갓잇AI(Got It AI)는 챗봇 애플리케이션에 적용할 수 있는 기업용 소형 언어 모델 ‘엘마(ELMAR)’를 공개했다. 엘마는 작은 규모의 사내 구축형(온프레미스) 언어 모델이다. 데이터 외부 유출에 민감한 기업들을 타겟으로, 사내에 구축해 가볍게 실행할 수 있으면서도 미세 조정을 통해 성능을 높였다.

[그림 5] 온프레미스형 소형 언어 모델 ELMAR (출처: Got It AI) 

 

갓잇AI의 CEO 피터 레란(Peter Relan)은 모든 기업이 크고 강력한 모델을 필요로 하는 것은 아니며 오히려 데이터가 외부로 반출되는 것을 원하지 않는 기업이 많다고 언급하며, 소형 언어 모델의 또 다른 강점을 이야기했다. 폐쇄적이고 활용이 어려운 대형 모델에 비해 이러한 소형 모델은 기업의 입장에서 보다 경제적이고 신속하게 만들 수 있는 데다 보유한 데이터를 활용해 맞춤형으로 구축할 수 있기 때문이다. 이에 향후에는 정보 유출을 우려하는 기업이나 국가 정부가 저마다의 독자적인 언어 모델을 구축해 자체적으로 운영하는 모습을 볼 수 있지 않을까 조심스레 전망해 본다.

[출처] https://www.igloo.co.kr/security-information/%EC%9E%91%EC%A7%80%EB%A7%8C-%EC%98%A4%ED%9E%88%EB%A0%A4-%EC%A2%8B%EC%95%84-%EC%86%8C%ED%98%95-%EC%96%B8%EC%96%B4-%EB%AA%A8%EB%8D%B8sllm/

Loading

17 9월 2023

[TV/언론] 인플루언서의 놀이터로 전락… 소셜미디어가 서서히 죽어간다

[TV/언론] 인플루언서의 놀이터로 전락… 소셜미디어가 서서히 죽어간다

직장인 김민지(34)씨는 12년 전 대학생 시절 페이스북에 가입했다. 사진을 찍어 일상을 친구에게 보여주고, 메신저로 대화했다. 직장인이 된 이후에도 그랬다. 그런데 3년 전부터 페이스북을 방치하기 시작했다. 김씨는 “대학 때만 해도 화장 안 한 얼굴을 올려도 어색하지 않았는데, 언제부턴가 고급 레스토랑에 명품 옷을 입은 사진을 올려야 체면치레는 하겠다는 생각이 들면서 자연스레 멀어졌다”고 말했다.

페이스북이나 X(옛 트위터) 같은 소셜미디어 이용이 조금씩 시들해지고 있다. 스마트폰 등장과 IT 기술 발달로 가입자 수가 해마다 급증했지만, 2020년대 들어 변하고 있다. 가파르던 이용자 수 증가 폭이 꺾이고 있다. 미국 데이터 분석 업체 디맨드세이지에 따르면 세계 소셜미디어 이용자 수는 2010년대 후반에는 매년 4억~5억명씩 증가했는데, 2020년대 들어서는 증가 폭이 3억명대로 줄었고, 내년부터는 2억명대로 더 줄어들 것으로 예측된다. 경제 매체 비즈니스인사이더는 “소셜미디어는 서서히 죽어가고 있다”고 했다.

1.png일러스트=김영석

◇손흥민·블랙핑크가 지배한다

소셜미디어 인기가 시들한 원인으로는 유명인과 연관된 콘텐츠가 지나치게 많이 노출된다는 불만이 점증한다는 점을 먼저 꼽을 수 있다. 한국을 예로 들면 축구선수 손흥민이나 걸그룹 블랙핑크 같은 유명인이나 인플루언서가 눈에 많이 띄고, 주변인들이 올리는 평범한 일상은 뒤로 밀리고 있는 것이다. 소셜미디어 업체들이 알고리즘이 추천한 콘텐츠를 주로 노출하기 때문이다.

인스타그램의 경우 2010년 출시 이후 6년 동안은 언제 올렸느냐에 따라 시간 순으로 콘텐츠를 노출했다. 그런데 2016년부터 알고리즘이 추천하는 순서에 따라 콘텐츠를 노출하고 있다. 이런 변화에 대해 애덤 모세리 인스타그램 최고경영자(CEO)는 “시간에 따라 배치하다 보면 너무 많은 콘텐츠가 올라오다 보니 가입자들은 콘텐츠의 70% 정도를 확인하지 못하는 문제가 생긴다”며 “이런 문제를 막기 위해 (알고리즘을 통해) 이용자 관심사를 바탕으로 게시물 순위를 정한다”고 설명한다. 페이스북이나 틱톡 등 다른 소셜미디어도 마찬가지다.

2.png페이스북의 새 회사명 메타의 로고. /로이터 뉴스1

이런 알고리즘이 주도하는 콘텐츠 배치에 대한 반발 강도는 점점 높아지고 있다. 미국 사진작가 타티 브루닝(22)은 지난해 ‘인스타그램을 다시 인스타그램답게 만들기’라는 캠페인을 시작했다. 인스타그램에 접속하면 ‘뽀샵(사진 보정)’ 처리된 사진이나 전문가가 제작한 동영상만 볼 수 있다고 느꼈기 때문이다. 타티는 “콘텐츠에 대한 큐레이션(편집으로 가치를 부여하는 일)이 너무 심하다 보니 정보를 파악할 수 없게 됐다”고 했다.

불만의 강도가 높아지면서 최근 소셜미디어 이용자 증가폭은 눈에 띄게 줄어들고 있다. 인스타그램의 경우 세계 이용자 수가 2021년에는 3분기와 4분기 사이 1억3500만명이 늘었는데, 작년에는 3·4분기 사이에 1500만명 증가하는 데 그쳤다. 페이스북도 2010년대 중반 매년 2억명 넘게 증가하던 가입자 수가 올해는 7000만명 증가하는 데 머물렀다.

요즘에는 소셜미디어를 사용하더라도 친구나 지인에게만 사진을 보여주거나, 아예 메신저로만 활용하는 소극적 이용자로 변하는 경우가 많다. 모세리 인스타그램 CEO도 “이용자들이 (사진 공유보다) 다이렉트 메시지(DM), 비공개 커뮤니티, 그룹 채팅으로 옮겨가고 있다”고 했다.

◇도배된 광고, 정치적 오염도 걸림돌

넘쳐나는 광고도 소셜 미디어에 염증을 느끼게 하는 원인으로 꼽힌다. 소셜미디어 영향력이 커지다 보니 기업들은 광고에 돈을 퍼부었다. 페이스북의 광고 매출은 2017년 399억달러였는데, 매년 150억달러 넘게 증가해 2021년에는 1156억달러에 달했다. X의 광고도 2020년 32억달러에서 2021년 45억달러로 40% 증가했다. 온라인 조사 업체 서베이몽키가 미국인 1200명을 대상으로 실시한 조사에서 응답자의 74%는 “소셜미디어에 광고가 지나치게 많다”고 했다.

정치에 대한 싫증이 소셜미디어를 멀리하는 이유라는 분석도 있다. 정치적인 극한 대립 탓에 특정 진영을 비방하거나 선전하는 콘텐츠가 홍수를 이루고 있어 소셜미디어를 아예 떠나는 이들이 늘고 있다는 것이다. 미국에서는 트럼프 전 대통령과 바이든 현 대통령이 맞붙었던 2020년 대선 때 특히 비방 선전물이 넘쳐났다. 요즘은 한국도 마찬가지다.

X의 경우 최근 트위터에서 이름을 바꾼 것이 거부감을 불러 이용자 감소로 이어지고 있다. 트위터를 인수한 일론 머스크 테슬라 CEO는 지난 7월 트위터 이름을 ‘엑스’(X)로 바꾸고, 트위터를 상징하는 파랑새 모양의 로고도 검은색으로 바꾼다고 했다. 이런 발표가 나온 직후 X의 주간 활성 사용자 수는 4% 줄어들었다.

3.png그래픽=김의균

◇중소형 소셜미디어, 반짝 뜨다 주춤

대형 소셜미디어가 주춤하는 사이 알고리즘 방식을 지양하는 새로운 소셜 미디어가 틈새를 파고들기 위해 애쓰고 있다. 2016년 독일의 20대 엔지니어가 개발한 ‘마스토돈(Mastodon)’은 트위터와 비슷하지만, 알고리즘을 사용하지 않는다. 마스토돈은 지난해 머스크가 트위터를 인수하자, 이에 대한 거부감을 느낀 사람들이 몰려와 36만여 명에 머물던 하루 활성 사용자 수가 한 달 만에 260여 만명으로 증가했다.

2019년 등장한 프랑스 소셜미디어 ‘비리얼(Bereal)’은 매일 정해지지 않은 시간대에 모든 사용자에게 동시에 알람을 보낸다. 알림을 받으면 2분 내에 사진을 찍어 올려야 한다. 다른 사람과 비교하지 말고 초췌한 모습이라도 당당하게 공개하라는 취지다. 2021년 71만여 명이던 비리얼의 일간 활성 사용자 수는 지난해 10월에는 2000여만 명으로 급증했다.

이런 중소형 소셜미디어들도 최근 인기가 시들고 있다. 활성 사용자 수가 마스토돈은 올해 6월 110만명 선으로 내려왔고, 비리얼도 지난 3월 기준 600만명으로 떨어졌다. 이에 대해 뉴욕타임스는 “이용자들은 말로는 진정성이 중요하다고 하지만 실제로는 재미있고 짜릿한 순간을 다른 사람과 공유하고 싶어 한다”며 “결국 온라인에서는 일상의 현실적인 모습을 잘 올리지 않게 된다”고 했다. ‘온라인상 진정성의 역설’이 있기 때문에 알고리즘 없이 자연스러움을 추구하는 소셜미디어가 인기를 얻는 데 한계가 있다는 것이다.

[출처] https://www.chosun.com/economy/weeklybiz/2023/09/14/KFQYRZGDONADDCSMMPTEKJURFY/

Loading

14 9월 2023

[TV/언론] 흥행도 못하는 게임 IP 웹툰·웹소설…왜 자꾸 나와

[TV/언론] 흥행도 못하는 게임 IP 웹툰·웹소설…왜 자꾸 나와

흥행도 못하는 게임 IP 웹툰·웹소설…왜 자꾸 나와

입력 2023.09.10 06:00
 
 
국내외 게임사가 잇따라 각 사의 라이브 서비스 게임과 신작 게임을 활용한 웹툰, 웹소설을 연재해 그 배경에 관심이 쏠린다. 게임 IP를 활용한 웹툰·웹소설의 반응이 좋지 않은데 꾸준히 출시되기 때문이다. 게임사 역시 웹툰·웹소설의 흥행이 목적은 아니다. 신작 게임의 게임성을 높이고 이용자 몰입도를 확보하기 위한 행보다.

왼쪽부터 시계 방향으로 메이플스토리:최후의 모험가, 이 주길럼의 전장, 사관학교의 슈트입는 영웅님. /각 사
8일 업계에 따르면 국내외 게임사가 게임 IP 기반의 웹툰, 웹소설을 콘텐츠 시장에 선보이고 있다.

넥슨은 이달 얼리액세스 예정인 PC온라인 게임 ‘워헤이븐’ 기반 네이버웹툰 ‘이 주길럼의 전장’을 연재한다. 8월에는 네이버 시리즈를 통해 메이플스토리 웹소설 ‘메이플스토리:최후의 모험가’를 공개했다.

스마일게이트는 모바일 역할수행게임(RPG) ‘에픽세븐’을 활용한 웹소설 ‘사관학교의 슈트 입는 영웅님’을 제작해 선보였다. 사관학교의 슈트 입는 영웅님은 카카오페이지에서 연재 중이다.

유비소프트는 네이버웹툰과 함께 PC온라인 게임 ‘어쌔신 크리드’를 활용한 웹툰 ‘어쌔신 크리드:잊혀진 사원’을 연재하고 있다.

펄어비스는 PC MMORPG ‘검은사막’ 웹소설 제작을 위해 카카오엔터테인먼트와 손잡고 공모전을 개최했다. 넷마블은 자회사 넷마블에프앤씨가 개발한 신규 IP ‘그랜드크로스’를 활용한 웹툰을 제작한다.

게임사가 앞다퉈 웹툰·웹소설을 연재하지만 성과는 별로 좋지 않다. 각 게임사의 연재 작품은 순위권에 이름을 올리지 못하고 있다.

업계는 이를 두고 수익 확대 보다는 각 게임의 지식재산권(IP) 확장을 위한 전략일 뿐이라고 입을 모은다. 현재 서비스 중인 게임을 플레이하는 이용자와 신작 게임이 기대감이 있는 이용자에 몰입도를 제공하기 위한 것이라는 분석이다.

업계 한 관계자는 “각 게임사는 다수의 이용자 게임 플레이 속도, 성향 등을 고려해 게임을 개발한다”며 “이 과정에서 각 게임 세계관, 스토리를 풍부하게 담아내는 것이 쉽지 않다”고 말했다. 그는 이어 “보다 다양한 세계관, 스토리를 선호하는 이용자 니즈를 충족시키기 위한 수단으로 웹툰과 웹소설를 이용하는 것이다”라고 덧붙였다.

그는 이어 “이들 웹툰, 웹소설은 원작을 기반으로 다양한 세계관과 스토리로 구성된다”며 “게임 팬들은 이런 웹툰과 웹소설을 선호하는 경우가 많아 게임사는 다방면으로 콘텐츠를 제작할 것이다”라고 말했다.

송가영 기자 sgy0116@chosunbiz.com

[출처] https://it.chosun.com/site/data/html_dir/2023/09/08/2023090802417.html

Loading

28 8월 2023

[인공지능 기술] [리뷰] 네이버 클로바X, 챗GPT 대항마라기엔 “조금 아쉬워”

[인공지능 기술] [리뷰] 네이버 클로바X, 챗GPT 대항마라기엔 “조금 아쉬워”

[리뷰] 네이버 클로바X, 챗GPT 대항마라기엔 “조금 아쉬워”

입력 2023.08.27 06:00
 
 
 
네이버가 24일 공개한 대화형 AI(인공지능) 서비스 ‘클로바X’는 대중으로부터 뜨거운 관심을 받고 있다. 한국 업체가 처음 선보인 새로운 생성형 인공지능(AI)인데다가 한국어 학습을 토대로 한국에 최적화된 AI라고 내세우면서다. 특히 챗GPT, 구글 바드 등 글로벌 빅테크와 견줘 한국어 특화 기능을 잘 구현하는 챗봇으로 주목을 받았다.

네이버의 클로바X는 미국 오픈AI의 초거대 AI모델인 ‘GPT-3.5’에 비해 한국어 데이터를 6500배 이상 학습한 점이 강점으로 꼽힌다. 이에 챗GPT, 구글 바드 등 글로벌 빅테크의 생성형AI와 비교해 클로바X가 대답을 얼마나 잘하는지 다양한 질의를 해보았다.

맛집 검색, 쇼핑에 최적화된 답변 내놔…구글은 양호·챗GPT는 평이

클로바X는 맛집찾기, 쇼핑 추천 등 항목에선 개인화된 답변을 잘 추출했다. 동네별 특성에 맞춘 인기 맛집을 추천하는데 있어 네이버가 반경을 넓히지 않고 개인의 취향을 고려한 동네 맛집을 잘 추천했다. 검색 서비스부터 커머스, 광고 등 서비스를 모두 한다는 장점을 갖춘 덕분에 관련 데이터 학습이 잘 이뤄진 것으로 파악된다.

구글 바드도 보편적으로 인기가 높은 맛집 소개를 했다. 챗GPT는 맛집을 소개하긴 하지만 ‘외국음식’이라는 추상적인 표현을 쓰거나 어떤 곳은 검색을 해도 존재하지 않는 곳이 나타나는 등 정확도가 다소 떨어졌다.

클로바X로 질의한 모바일 화면 갈무리.
정보 정확성, 빅테크 대비 다소 떨어져

클로바X는 구체적인 정보를 확인하는 과정에서는 다소 정확성이 떨어지는 모습이 포착됐다. 클로바X에 “카카오게임즈에서 잘나가는 게임을 알려줘”라고 물으니 인기 게임으로 꼽히는 ‘오딘’은 언급하지 않고 ‘배틀그라운드’, ‘엘리온’, ‘아레스’를 언급했다.

오히려 구글 바드는 ‘오딘’과 ‘에버소울’, ‘아키에이지 워’를 언급하며 구체적으로 설명도 덧붙였다. 챗GPT는 ‘리니지2M’, ‘펍지’, ‘꿈의 정원’, ‘킹 오브 파이터 올스타’를 답했다. 전혀 상관없는 답변으로 평가된다.

음악 검색 및 추천 기능은 양호했다. 이별 명곡을 추천해 달라는 말에 클로바X는 박효신 ‘눈의꽃’, 버스커버스커의 ‘벚꽃엔딩’ 등을 추출했다. 챗GPT 3.5는 아델의 ‘Hello’, 콜드플레이 ‘Fix You’ 등 팝송 위주로 답변을 했다. 구글 바드는 2023년 발매된 나훈아의 ‘아름다운 이별’, 태연의 ‘들여놓아요’를 추천하며 추천한 이유에 대한 자세한 설명도 친절히 덧붙였다. 그러나 태연의 곡은 검색이 되지 않는 없는 노래로 확인됐다.

클로바X로 질의한 모바일 화면 갈무리.
클로바X의 학습량이 어느정도 되었는지도 확인해 봤다. 네이버에 따르면 하이퍼클로바X의 파라미터(매개변수)는 오픈AI의 GPT-3.5(1750억개)보다 큰 2040억개쯤이 더 많다. 한국어 학습량 역시 GPT-3의 6500배 이상으로 알려졌다.

특히 매일 갱신되는 최신 데이터가 학습됐다는 점에서 타 빅테크와 차별점이 있다고 네이버는 강조했다. 그러나 최신 데이터 학습이 제대로 되지 않거나 답변을 못하는 경우가 포착됐다.

오늘(24일) 최수연 네이버 대표가 강조한 내용이 뭐야?

동일질문으로 구글 바드가 답한 답변. 비교적 정확히 최신 데이터를 활용해 답변했다.
하이퍼클로바X와 관련한 기사를 쓰고자 최수연 네이버 대표가 발표한 내용의 핵심이 무엇인지 물었더니 클로바X는 “강조한 내용의 정확한 정보를 제공할 수 없다. 다만 네이버의 대표이사로 선임돼 직원들과 소통을 중요시하는 것으로 알려져있다”고 답했다.

반면 구글 바드는 “최수연 대표는 팀 네이버 콘퍼런스 단 23에서 생성형 AI 시대에 네이버의 준비를 강조했다”며 그가 언급한 주요 내용을 요약해서 비교적 정확히 24일에 일어난 일을 요약해 알려줬다. 챗GPT-3.5와 4에선 “마지막 업데이트는 2021년 9월이며 그 이후의 정보는 포함돼 있지 않다”고 답했다.

24일 주요 뉴스를 알려달라는 질의에 클로바X는 “AI 모델로서 실시간 뉴스를 제공할 수 없다”고 말했다. 이용자가 직접 검색엔진을 찾도록 유도했다. 다만 기업인이나 사회적 저명인사를 검색해 그 사람이 한 일을 물어봤더니 관련 기사 인터뷰 등의 일부 발언을 추출해 답변을 하면서 밑에 출처 신문사를 표기해 주기도 했다.

챗GPT는 최신 뉴스 정보는 지식 범위에 포함하지 않는다면서 답변은 회피하며 이용자에게 직접 검색을 제안했다. 반면 구글 바드는 ‘일본, 후쿠시마 오염수 해양 방류 시작’, ‘북한, 2차 위성발사 실패’ 등의 기사 브리핑을 해줬다.

영어번역 요청과 관련해 생성형AI 반응들. 위부터 클로바X, 챗GPT-3.5, 구글 바드.
할루시네이션 오류 자주 발견…동문서답도

클로바X는 생성형 AI 한계로 꼽히는 할루시네이션(거짓말·환각) 현상은 제대로 극복하지 못한 모습도 여실히 보여줬다. 네이버는 내부 평가 기준 일반 거대 언어모델(LLM)에 비해 답변 적합도가 75%로 높다고 말했지만 해외 대비 수준이 미흡한 상태로 확인됐다.

“신데렐라는 몇 명의 난장이와 살았을까?”라는 질문에 클로바X는 “신데렐라는 일반적으로 한 명의 왕자와 함께 살았던 것으로 알려져 있다”라고 설명한다. 챗GPT-4는 “신데렐라는 난장이와 함께 살지 않았다. 당신이 혼동하고 있는 것은 ‘백설공주’ 이야기일 가능성이 높다”고 정확히 답변했다. 구글 바드 역시 “신데렐라와 백설공주를 혼동한 것 같다”고 답했다.

클로바X는 잘못된 질문을 했을때 질문의 맥락을 잘 이해못하고 동문서답을 하기도 했다. 클로바X에 대뜸 “다음 영어 글에서 문법적으로 잘못된 부분이 있으면 수정해 줘”라고 명령하니 “네, 물론입니다”라는 답변과 함께 “Hello, my name is John. I am a student…”라며 통상적으로 쓰이는 영어 회화 표현을 내놨다. 번역을 할 영어 원문을 쓰지 않았는데도 ‘번역’이라는 말을 인식해 스스로 문장을 만들어버린 것이다.

반면 챗GPT-3.5는 “어떤 영어 글인지 알려주면 수정하겠다”며 의도를 잘 이해한 모습을 보였다. 구글 바드도 네이버 클로바X와 비슷하게 인식했다. “알겠습니다. 다음은 원본 영어글 입니다”라며 “I am student at Seoul National University.…”라고 문장을 만들고 수정까지 스스로 했다.

표절·저작권 이슈 소지 있는 질문엔 보수적 답변

생성형AI의 또하나의 화두는 표절·저작권 침해 문제다. 이 문제에 있어선 클로바X가 비교적 보수적으로 대응했다.

클로바X에 SF소설을 하나 작성해 달라고 부탁하니 “저는 인공지능 언어모델로 소설을 직접 작성할 수 없다”고 말했다. 이어 “등장인물과 주요 플롯을 바탕으로 작성에 도움을 줄 수는 있다”며 등장인물 성격과 특징 파악하기, 주요 플롯을 바탕으로 등장인물의 행동과 사건 상상하기 등 소설 작성의 팁을 전해줬다.

챗GPT-4.0과 구글 바드는 “등장인물과 주요 플롯을 알려주면 이를 바탕으로 작성하겠다”고 답했다.

클로바X는 분명 글로벌 빅테크와 견줘 아직 개선해야 할 부분이 많고 학습량 측면에서 부족한 부분이 많았다. 특히 할루시네이션 문제는 앞으로 계속 보완해야 할 과제로 보인다. 그럼에도 불구하고 네이버가 강조한 한국어 데이터 경쟁력, 검색·지도·콘텐츠 등을 중심으로 한 정보 구현은 글로벌 기업에 못지 않게 비교적 잘 구현했다.

글로벌 빅테크에 대항해 8.15 광복과 비슷한 사명감으로 개발에 참여했다는 네이버 개발진의 말처럼 오류를 개선하고 고도화를 잘 해나가는 일이 주도권 확보에 있어 가장 중요한 과제가 아닐까 한다.

네이버 관계자는 “할루시네이션은 우리뿐 아니라 모든 모델이 가진 난제다”라며 “클로바X를 처음 공개할 때 좀 더 실험적으로 많이 써볼 수 있도록 베타서비스로 오픈한 것이다”라고 설명헀다

.

그는 이어 “앞으로 계속 서비스를 고도해 나가겠다”며 “할루시네이션 문제를 줄이기 위해 ‘스킬’ 시스템을 접목했다”고 말했다. 또 “최신정보와 출처를 제시하는 등 정보를 호출하도록 하는 기능으로 전문성이나 최신성 답변의 부재에 대한 문제를 보완할 수 있는 능력으로 빅테크와 비교해 강점이다”라고 덧붙였다.

이선율 기자 melody@chosunbiz.com

[출처] https://it.chosun.com/site/data/html_dir/2023/08/26/2023082601580.html

Loading

26 8월 2023

[정보 (및 수학)] [주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

[정보 (및 수학)] [주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

[주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

입력

인문학자 이은수 서울대 철학과 교수 (왼쪽), 수학자 이승재 서울대 박사후연구원 (오른쪽). 수학동아 제공

함수는 어떤 값이 주어지면 그에 대응하는 다른 값이 주어지는 관계다. 함수라는 도구가 생기면서 복잡한 문제를 간단히 표현하고 심지어는 앞으로 벌어질 현상을 예측할 수 있게 됐다. 함수가 어떻게 발전했고 좋은 함수란 어떤 것인지 알아보면 함수가 얼마나 일상생활에서도 중요한지를 알 수 있게 된다.

○ 첫 번째 질문. 함수는 언제 처음 등장했는가.

Q(수학자). 함수는 어떤 역사가 있나요.

A(인문학자). “대응 관계와 함수를 구분해서 답해볼게요. 정해지지 않은 두 양, 즉 두 변수의 대응 관계는 오래전부터 연구됐어요. 고대 천문학에 남아있는 자료 중에는 특정 각도의 사인, 코사인 값 등을 계산해 놓은 표가 있어요. 이 표에는 각도와 계산 값 사이의 대응 관계도 담겨 있지요.

하지만 대응 관계라는 설익은 아이디어가 아니라 함수가 하나의 독립적인 수학적 탐구 대상이 된 건 17, 18세기예요. 프랑스 수학자 르네 데카르트(1596~1650)는 자신의 저서 ‘기하학’에서 임의의 두 양이 어떤 식에 의해서 상호 관계를 맺는 상황을 설명했어요. 말하자면 두 변수의 관계를 생각한 것이지요.

이후에 영국의 물리학자이자 수학자인 아이작 뉴턴(1643~1727)은 저서 ‘유율법’에서 서로 관계를 주고받는 여러 운동학적 변수 중에 다른 변수에 영향을 주는 변수를 ‘독립 변수(quantitas correlata)’, 그에 따라 바뀌는 변수를 ‘종속 변수(quantitas relata)’라는 라틴어로 구분해서 표현했어요.”

Q(수학자). 하지만 아직도 함수라는 단어가 나오지 않았어요. 언제 처음 함수라는 단어가 정의됐나요.

A(인문학자). “좋은 질문이에요. 보통 아이디어는 단어를 정의하기 전부터 존재하지만 특정한 단어로 쓰여야 그 뒤에 본격적인 발전이 일어나요. 17세기 말 독일 수학자 고트프리트 라이프니츠(1646~1716)가 남긴 원고를 보면 라틴어 동사 ‘fungor’에서 파생한 명사 funtio를 써서 대응 관계를 나타냈어요.

fungor는 영어로 말하면 perform으로, 한국어로는 ‘기능하다’라는 의미가 있어요. 그리고 이것의 명사 형태가 functio, 복수가 functiones예요. 영어로 바꾸면 함수를 뜻하는 단어인 function이 되지요.

이후 기하학적인 양 사이의 관계뿐 아니라 일반적인 양 사이에서도 함수 개념이 정립돼요. 대표적으로 1718년 ‘과학아카데미 회고록’에 스위스 수학자 요한 베르누이(1667~1748)가 함수를 새로운 수학적 대상으로서 정의한 구절이 다음과 같이 남아있습니다.”

어떤 양(y)이 특정한 방식(a)에 따라 변하는 양(x)과 변하지 않는 양(b)에 의해 구성되는 것( y = ax + b)을 변화하는 크기의 함수라고 부른다. Memoires de l Academie des Sciences 제공

 

○ 두번째 질문. 어떤 함수가 좋은 함수인가.

Q(인문학자). 수학에서는 모순이 없고 명확한 것을 가리켜 ‘well-defined(잘 정의됐다)’라고 해요. 함수 중에서도 잘 정의된 함수 소위 말해 좋은 함수가 있을 것 같아요. 좋은 함수가 되기 위한 조건이 있나요.

A(수학자). “함수는 우리가 이해하고 싶은 현상을 얼마나 잘 표현하고 얼마나 잘 예측하는지가 중요해요. 그러니까 기본적으로 예측이 틀린 함수가 나쁜 함수겠지요. 그렇지만 원하는 현상을 함수가 제대로 설명한다고 좋은 함수라고 단정 짓기는 어려워요. 함수 자체가 얼마나 변수들의 관계를 잘 표현하는지를 보여줄 수 있어야 좋은 함수지요.

아주 쉬운 예를 들어볼게요. 독자에게 ‘수학동아’를 한 권씩 나눠준다고 생각해볼게요. 독자가 1명이라면 1권, 10명이라면 당연히 10권을 나눠주면 될 거예요. n명의 독자가 있다면 n권이 필요하겠지요. 이를 함수로 표현하면 f(n) = n이에요.

단순하다고 생각할 수 있지만 여러 가지 의미로 정말 좋은 함수예요. 일단 n에 독자 수를 대입하면 우리가 원하는 값을 얻을 수 있고 식을 봤을 때 ‘이 식은 일대일대응이구나’, ‘우리는 독자 수만큼 책을 준비하면 되는구나’라고 문제를 온전히 이해할 수 있지요.”

Q(인문학자). 결국 우리가 관심 있는 현상을 표현할 수 있고 식을 이해하는 데에도 문제가 없으면 좋은 함수군요. 그런 좋은 함수를 찾는 게 어렵나요.

A(수학자). “정말 어려운 일이에요. 예를 들어 분할 함수는 자연수 n이 있을 때 이 자연수를 다른 자연수의 합으로 표현하는 방법의 가짓수를 찾는 거예요. n이 1, 2, 3일 땐 다음과 같지요.

수학동아 제공

앞의 규칙을 봤을 때 n = 4이면 4가지라고 예측하기 쉬워요. 그런데 n이 4일 때는 4가지가 아니라 5가지가 나와요. 1 + 1 + 1 + 1, 1 + 1 + 2, 1 + 3, 4를 비롯해 2 + 2가 하나 더 있습니다.

문제 자체는 이해하기 쉽지만 어떤 자연수 n을 집어넣었을 때 정확한 결과값을 내놓는 함수를 아직 찾지 못했습니다. 인도 수학자 스리니바사 라마누잔(1887~1920)이 최대한 근삿값을 찾을 수 있는 함수를 발견했지만 너무 복잡해요.

과학 혹은 일상생활에서 쓰는 함수는 많은 경우에 관측을 통해 입력값과 결과값을 보며 둘 사이의 관계를 유추한 것인데요. 이런 추론을 위해선 많은 관측값이 필요하고 아무리 관측값이 많아도 절대 정확성을 보장하지 못한다는 단점이 있어요.

예를 들어 1, 2, 4, 8, 16이라는 수열의 다음 값을 한번 예측해보세요. 아마 많은 사람이 32라고 대답하겠지요. x값이 차례로 1, 2, 3, 4, 5일 때 함수가 2의 거듭제곱인 형태, 즉 f(x) = 2x – 1이라고 생각한 결과예요.

그렇지만 ‘원 위에 x개의 점을 놓고 그 점들 사이에 선을 그었을 때 원을 나눌 수 있는 가장 많은 영역의 수’를 표현한 함수 f(x) = (x3 – 6 x2 + 23x – 18) + 1 역시 x = 1, 2, 3, 4, 5일 때 1, 2, 4, 8, 16이지만 x = 6일 때는 32 대신 31이라는 값을 내놓아요.

그러니 단순히 관측값만 가지고 ‘이 함수가 정말 우리 문제를 잘 표현하는 좋은 함수인가?’를 알기란 쉽지 않습니다. 그래서 많은 연구자가 지금까지도 어떤 현상을 정확히 표현하는 좋은 함수, 정확한 함수를 찾는 일을 하고 있지요.”

수학자 이승재 서울대 박사후연구원 (왼쪽), 인문학자 이은수 서울대 철학과 교수 (오른쪽). 수학동아 제공

Q(인문학자). 좋은 함수를 찾는 게 만만치 않은 일이라면 수학자는 한정된 시간 안에서 더 중요한 일에 집중해야 할 텐데요. 그러면 어떤 함수가 중요한 함수일까요.

A(수학자). “‘중요한 함수’를 정의하는 건 ‘좋은 함수’를 정의하는 것보다 더 어려운 문제예요. 굉장히 주관적일 수 있거든요. 그래도 보편적인 기준을 정하자면 역사적인 의미가 있는 함수, 수학뿐만 아니라 인류 문명의 발전에 기여한 함수, 범용적이고 보편적으로 활용할 수 있는 함수가 중요한 함수이지 않을까 싶습니다.

중고등학교 때 배우는 일차, 이차, 삼차 함수는 결국 직선, 포물선 등과 관련있기 때문에 중요하다고 말할 수 있어요. 삼각함수, 로그함수, 지수함수는 실제 물리적인 현상을 기술하고 우리 생활에서 떼려야 뗄 수 없을 만큼 다양한 곳에서 쓰이기 때문에 너무나 중요하지요.

물리학에도 함수가 중요하게 쓰여요. 대표적으로 뉴턴의 운동 제2법칙인 F = ma는 ‘이동하는 물체의 힘(F)은 그 물체의 질량(m)과 가속도(a)에 비례한다’는 물리 법칙을 표현하는 함수예요. 이 함수를 통해 단순히 가속도가 증가함에 따라 힘이 증가하는 것이 아니라 가속도에 비례한다고 정확히 표현할 수 있게 됐지요.

이런 여러 가지 함수의 중요성과 역사에 관심을 가질 분에게 추천하는 책이 있는데요. 이안 스튜어트 영국 워릭대 수학과 교수가 쓴 ‘세상을 바꾼 17가지 방정식’이라는 책입니다. 중요한 함수들에 대한 수학자들, 혹은 과학자들의 생각을 잘 살펴볼 수 있는 좋은 책 중 하나입니다.”

수학자 이승재 서울대 박사후연구원 (왼쪽), 인문학자 이은수 서울대 철학과 교수 (오른쪽). 수학동아 제공

 

○ 세번째 질문. 함수는 세상을 어떻게 바꿨는가.

Q(인문학자). 흔히 사칙연산만 하면 사는 데 아무 지장이 없는데 수학을 왜 이렇게 많이 배우냐고 묻는 사람이 있어요. 하지만 함수는 사칙연산 다음으로 도움되는 개념이에요. 곳곳에서 대응 관계를 파악하려는 노력을 많이 볼 수 있거든요.

예를 들어 사람들이 주식에 투자할 때 과거의 데이터로 이익률을 높이는 특정한 함수를 찾아서 막대한 수익을 얻고자 하지요. 이처럼 수학의 많은 개념 중에서는 우리 생활에서 함수가 차지하는 역할이 상당히 커요.

인문학적 관점에서 함수가 남긴 의미를 이야기해볼게요. 함수를 도입하고 난 뒤 사람들은 특정한 개체 및 단독 개념만 탐구하기보다는 두 개체 및 두 개념 사이의 관계를 본격적으로 탐구하기 시작했어요. 그러면서 지식의 확장이 일어났지요. 전혀 관계가 없어 보이는 것 사이에도 우리가 아직 알지 못하고 규명하지 못한 관계가 있다고 생각하게 된 거예요.

최근 실질적인 가치를 창출하는 스마트 데이터와 관련해 다시 주목받는 지식 그래프(개념, 사물, 사건 등의 개체의 관계를 나타내는 그래프로 정보와 지식을 구조화해 표현하는 방법)는 지식과 지식 사이를 연결한 관계망이에요. 기존에 따로따로 떨어뜨려 놓고 생각했던 지식 사이에서 관계를 찾아 연결하는 말하자면 함수적인 사고를 한 것이지요.

사회가 복잡해질수록 특정 개체에 대한 1차원적인 접근으로는 해결할 수 없는 문제가 너무나 많아요. 그래서 고도화된 관계를 이해할 수 있는 능력 자체가 훨씬 중요해졌지요. 그런 의미에서 함수가 우리의 사유하는 방식 자체에 미친 영향이 크다고 생각해요. 연구원님이 생각하기에 수학, 과학에서 함수는 또 어떤 의미에서 중요한가요.

A(수학자). “함수는 세상을 정말 많이 바꿨고 지금도 계속해서 바꾸고 있어요. 과학에서는 먼저 현상을 관측하고 이를 통해 가설을 세우고 그 가설이 사실인지 검증해요. 이때 함수는 관측, 가설, 결과, 예측 모든 것을 연결해요.

기존에 있었던 값으로부터 어떤 관계가 있을지 예상하기 위해서는 그 관계를 표현할 수 있는 함수가 필요하고 예측이 맞는지 확인하기 위해서는 예측값과 결과값이 모두 있어야 하니까요.

인공지능도 수많은 입력값, 결과값을 함께 학습시키고 그렇게 학습된 인공지능이 정말로 우리가 원하는 예측을 할 수 있는지 보는 게 본질이잖아요. 결국 입력값과 결과값을 연결할 수 있는 함수가 무엇이고 그 함수를 우리가 잘 예측하고 학습할 수 있는지가 중요하지요. 인공지능이 지금 세상을 어떻게 바꾸고 있는지 보는 입장이라면 함수가 세상을 바꿨다고도 얘기할 수 있을 것 같아요.

과학 관점에서 추가로 이야기를 드리면 뉴턴은 F = ma와 같은 함수를 이용해서 고전역학이라는 하나의 물리계를 완성했어요. 특히 뉴턴은 고전역학을 정립한 사람으로도 유명하지만 미분이 처음 등장한 ‘프린키피아’라는 책을 쓴 사람으로도 유명하잖아요.

미적분이 함수와 만나면서부터 실제 물리적인 현상을 기술할 수 있는 엄청난 도구들을 손에 쥐게 됐지요. 그다음부터 정말 새로운 세상을 만들어 갈 수 있었습니다. 이밖에도 다양한 함수가 우리가 알고 싶은 세상을 이해할 수 있게 했지요.”

[출처] https://n.news.naver.com/article/584/0000024076?ntype=RANKING

Loading

23 8월 2023

[물리] 상온에서도 작동하는 양자컴퓨터 가능성 찾았다

[물리] 상온에서도 작동하는 양자컴퓨터 가능성 찾았다

상온에서도 작동하는 양자컴퓨터 가능성 찾았다

입력
한국원자력연구원, 새 양자 소재 후보물질 확인

한국원자력연구원 첨단양자소재연구실 김재욱 박사가 고품질의 TbInO3 단결정을 합성하기 위해 사용되는 레이저 부유 용융로를 점검하고 있다. 한국원자력연구원 제공

한국원자력연구원 연구진이 포함된 국제공동연구팀이 상온에서도 대규모 양자 얽힘 현상을 구현할 수 있는 양자 소재 후보 물질을 확인했다.

한국원자력연구원은 김재욱 첨단양자소재연구실 선임연구원 연구팀이 터븀인듐산화물(TbInO3)이 양자컴퓨터 소자 등에 쓰일 수 있는 양자스핀액상(QSL) 물질이 될 수 있음을 실험적으로 증명했다고 23일 밝혔다. 연국 결과는 국제학술지 ‘네이처 피직스’에 17일 게재됐다.

양자컴퓨터는 양자역학의 고유 특성인 중첩과 얽힘을 이용해 한 번에 많은 정보를 동시에 처리할 수 있다. 특정 문제에 대해 기존의 슈퍼컴퓨터보다도 수 백만 배 이상 빠르게 풀 수 있어 양자 기술이 미래 산업의 판도를 바꿀 게임 체인저 기술로 주목받는다.

하지만 양자역학적 중첩과 얽힘 현상은 구현이 어렵다. 온도 변화, 불순물, 외부 전자기장 등 미세한 자극에도 다양한 오류가 발생한다. 취약한 양자 상태를 안정적으로 만들려면 절대영도(-273.15도)에 가까운 극저온 환경을 구현해야하는 등 까다로운 조건들이 필요하다.

QSL은 양자 오류를 해결할 수 있는 후보 소재 중 하나다. QSL은 새로운 자기 상태의 물질로 양자 요동에 의한 대규모 양자 얽힘이 가능하다. 양자 오류를 대폭 줄인 양자컴퓨터 구현에 필요한 강력한 후보 소재로 여겨진다.

이제까지 수 많은 QSL 후보 물질에 대한 검증이 이뤄졌지만 불순물, 무질서한 물질 구성 등으로 인해 광학전도도-주파수 제곱 비례 현상을 실험적으로 확인할 수 없었다.

연구팀은 QSL 후보 물질 중 하나인 터븀인듐산화물(TbInO3) 단결정에서 이를 실험적으로 확인하는 데 최초로 성공했다. 레이저로 녹여 구조가 고른 단결정을 제조하는 레이저 부유 용융로를 사용해 고품질의 TbInO3 단결정을 합성했다. 이후 테라헤르츠(THz) 전자기파를 물질에 쪼여 광학전도도를 측정하는 분광실험을 수행했다.

실험은 극저온에서 상온에 이르는 넓은 온도 범위와 다양한 자기장, 주파수 대역에서 진행됐다. 특히 실험에 방해가 되는 빛의 내부 반사 효과를 줄이기 위해 시료 두께를 정밀히 제어했다.

그 결과 특정 영역에서 광학전도도가 정확히 주파수 제곱에 비례함을 실험적으로 입증됐다. 영상 27도 수준의 실온에서도 광학전도도 비례 현상이 나타났다. TbInO3가 상온에서도 QSL 특성을 구현할 수 있음을 실제 확인한 최초 사례다. 연구팀은 이번 연구 결과를 바탕으로 TbInO3이 무오류 양자컴퓨터의 소자로 응용할 수 있는지 등을 더 연구할 계획이다.

연구를 이끈 김재욱 선임연구원은 “이번 연구 결과는 양자스핀액상 물질의 오래된 이론적 예측을 실험적으로 검증한 첫 사례”라며 “향후 양자컴퓨팅 및 양자 센서 소자의 설계에 큰 도움이 될 것”이라고 말했다.

스피논 준입자와 외부 전자기파의 상호작용 모식도(위) 및 TbInO3 물질의 삼각 격자 구조(아래). 한국원자력연구원 제공

[출처] https://n.news.naver.com/article/584/0000024034?ntype=RANKING

Loading

22 8월 2023

[사회과학] 신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

[사회과학] 신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

IT업계에 5대 요구사항 전달

한국신문협회는 22일 ‘생성형 인공지능(AI)의 뉴스 저작권 침해 방지를 위한 신문협회 입장’을 내고 “정당한 권원(어떤 행위를 정당화하는 법률적인 근거) 없이 뉴스 콘텐츠를 AI 학습에 이용하는 것은 언론사가 뉴스 콘텐츠에 대해 갖는 저작권 및 데이터베이스(DB) 제작자로서의 권리를 침해하는 것”이라고 밝혔다.

신문협회는 이날 입장문 발표와 함께 네이버·카카오·구글·MS 등 국내외 대형 IT(Information Technology·정보기술)업체들에 대해 ①뉴스 저작권자와 이용기준 협의 ②‘글로벌 AI 원칙’ 준용 공표 ③생성형 AI 학습 데이터의 출처 등 공개 ④뉴스 콘텐츠 이용 방식 구체적으로 명시 ⑤뉴스 저작물에 대한 적정한 대가 산정 기준 마련 등 5대 요구사항을 전달했다.

네이버가 오는 24일 초거대 AI ‘하이퍼클로바X’ 오픈을 예고하는 등 언어학습에 기반한 각종 AI 서비스의 확대를 앞두고 있는 가운데, 이들 기업을 상대로 뉴스 저작권에 대한 입장을 표명한 것이다. 예컨대 하이퍼클로바X는 뉴스 50년 치, 블로그 9년 치에 달하는 한국어 데이터를 학습했으나, 저작권자들의 허락을 받지 않은 채 뉴스 콘텐츠를 AI 학습에 이용했다는 지적을 받아왔다.

신문협회는 이날 입장문에서 “생성형 AI는 뉴스 콘텐츠로 학습해 결과물을 생성해내면서도 언론사로부터 이용 허락을 받지 않은 채 사용하고 있으며, 뉴스 콘텐츠를 이용해 생성한다는 인용 표기도 이뤄지지 않고 있다”며 “생성형 AI를 학습시키기 위해서는 뉴스 콘텐츠의 저작권자인 언론사로부터 이용 허락을 받아야 침해 행위를 벗어날 수 있다”고 지적했다. 신문협회는 “이들 업체는 생성형 AI 개발을 위한 뉴스 콘텐츠 이용에 대해 저작권법상 ‘저작물의 공정한 이용(제35조의5)’에 해당돼 저작권 침해가 아니라는 주장을 하고 있지만, 이는 공정 이용에 해당하지 않는다”며 “AI 기업이 뉴스 콘텐츠를 학습 데이터로 이용하기 위해선 언론사로부터 이용 허락을 받는 것은 물론, 사용료를 지급해야 할 것”이라고 밝혔다.

신문협회는 하이퍼클로바X와 관련, “네이버는 기사를 ‘연구’에 활용할 때는 언론사 동의를 받지 않도록 한 옛 약관을 적용해 제휴 언론사들의 기사 50년치를 AI 학습에 활용했다”며 “이는 명백한 불공정 행위”라고 지적했다. 신문협회는 “이미 AI 모델을 활용해 수익이 발생하는 상황에서 이들 기업은 손해배상을 하거나, 뉴스 콘텐츠를 활용한 것에 대해 보상을 해야 할 것”이라고 했다.

신문협회는 “향후 AI 기술 발전 등 디지털 미디어 시대에 맞는 저작권 보호 기반을 마련하기 위해 제도 개선이 필요하다”며 “뉴스 콘텐츠를 무단으로DB화 하는 것을 방지하는 등 급변하는 디지털 환경에서 뉴스 저작권 보호가 긴요하다”고 말했다.

[출처] https://www.chosun.com/culture-life/broadcast-media/2023/08/22/PY6AHWKEUNGNRBCU4JF6A2EXGE/

Loading

10 8월 2023

[알아봅시다] 기사 제보하는 현실적인 방법(억울한 일 당해서 기사화하고 싶은 분 보세요) 

[알아봅시다] 기사 제보하는 현실적인 방법(억울한 일 당해서 기사화하고 싶은 분 보세요)  

“혹시 ㅇㅇㅇ 기자 연락처 알아?”

어느 날 지인으로부터 이 같은 질문을 받았다. 억울한 일을 당해서 그 일을 기사화 하고 싶다는 이유였다. 이 질문을 받고 언론에 기사 제보하는 방법에 대한 글을 써야겠다고 생각했다. 누구나 건너 건너 찾다 보면 아는 기자 한 명쯤은 있겠지만, 친한 언론인이 없는 사람이 더 많을 테니까.

기자와 개인적인 친분이 있거나 연락처를 알면 억울한 일을 기사화하기 조금 더 쉬워질 수도 있겠지만, 기사 제보의 가장 중요한 점은 ‘내가 당한 억울한 일이 기삿거리가 되는가’이다. 사람들은 흔히 기사 제보를 하기 위해 ‘건너건너 아는 기자’를 찾는다. 근데 생각보다 ‘아는 기자’가 내 일에 직접적으로 도움이 되지 않을 경우가 많고, 내 일이 기삿거리가 될만한 일이면 생판 모르던 기자도 열심히 취재해 기사를 써준다. 이 점을 먼저 염두에 두고 현실적인 기사 제보 방법을 설명한다.


1. 사건을 간단하고 알기 쉽게 정리하기

제보를 하기 위해서 먼저 내가 겪은 사건에 대해 ‘글로’ 일목요연하게 정리하는 게 중요하다. 상세하게 모든 부분을 제보 단계에서부터 오픈할 필요는 없으나, 무슨 일인지도 모른 채로 억울하다는 한 마디를 보고 연락을 할 기자는 없다. 왜냐하면 정말 무수한 제보 메일이 오기 때문이다.

흔히 하는 실수 2개는 너무 설명을 하지 않거나, 지나치게 많이 하는 일이다. 내가 당한 일은 이미 익숙하기 때문에 읽는 사람도 대충 알 것이라고 생각해서 배경 설명을 별로 하지 않는 경우가 있는데, 최대한 객관적인 정보는 써주는 게 좋다. 반대로 읽어지기 싫을 만큼 매우 매우 길고 불필요한 설명이 많은 글도 피하는 게 좋다.

적절한 수준은 우리가 흔히 접하는 기사에 나오는 딱 그 정도의 정보인데. 현실적으로 일반인이 이걸 알기는 쉽지 않기 때문에 겹치는 내용 없이 깔끔하게 적는 게 중요하다. 글을 쓰기가 쉽지 않다면 번호를 매겨가면서 써보자. 그리고 가능하다면 이 일을 모르는 사람한테 글을 보여주고 이해가냐고 물어보자.


2. 제보하기

제보는 크게 두 가지 방법이 있다. 언론사에 공식 제보, 기자에게 개인 제보.

우선 언론사에 공식 제보를 할 경우에 원하는 언론사 홈페이지에 들어가면 제보를 위한 공식 메일 주소나 카카오톡 계정을 알 수 있다. 거기에 내가 일목요연하게 정리한 내용을 보내면 된다. 공식 제보가 씹힌다고 생각하는 분들이 많은데, 보통의 언론사라면 ‘기삿거리가 될만한 일’은 다 기자한테 전달이 되니까 걱정은 안 해도 된다.

기자에게 개인 제보의 경우, 내가 원하는 기자가 있을 경우와 없을 경우로 나뉠 수 있다. 내가 원하는 기자가 있는 경우 그 기자 기사 밑에 있는 바이라인을 보고 그 메일 주소로 제보 메일을 보내보자.

없을 경우에는 내가 제보하려는 분야, 예를 들어 단순 사건 이면 사회부, 정치인 관련이면 정치부, 회사 관련이면 산업부 이런 식으로 분야 파악을 한 후에, 내 사건과 비슷한 기사 혹은 내 사건 분야의 기사를 쓴 기자를 찾아서 그 바이라인으로 보내면 된다(가장 확률 높음) 분야(부서)가 중요한 이유는 대부분의 기자는 자기 소속 부서와 관련된 기사만 쓰기 때문에 현실적으로 도움이 되는 사람을 찾을 가능성이 높아진다. ‘아는 기자’가 도움이 안 되는 이유도 마찬가지다.


3. 기사 제보 팁

-제목을 잘 쓰자. 모든 글이 마찬가지겠지만, 기자 메일함에는 온갖 제보, 행사 및 보도자료, 욕 등의 메일이 있다. 그중 내 제보 메일을 읽게 하려면, 그냥 안녕하세요나 억울합니다 보다는 핵심 문장을 적어주는 게 좋다. 어떻게 써야 할지 모르겠다면, 내 일이 기사화가 됐을 때 어떤 제목으로 나갔으면 좋을 것 같은지 고민해 보고 그 내용을 메일 제목으로 쓰자.

-개인 연락처(중요!!!)를 꼭 보내자. 간혹 개인 신상을 우려해서 연락처를 적어두지 않는 분들이 있는데, 내 일이 기사화가 되길 원한다면 무조건 내 번호를 적어야 한다. 무조건… 기사에는 신상이 당연히 노출되지 않지만, 제보자와 연락을 한 번도 하지 않고 기사를 낼 기자는 없다. 심리적으로 연락처가 있는 경우 별다른 수고를 하지 않아도 되기 때문에 ‘어, 연락 한 번 해볼까?’ 싶은 마음이 든다.

-어떤 증거가 있는지 제시하자. 증거 사진, 영상, 음성 등이 있다면 그 점을 강조해 주는 게 좋다. 역으로 증거가 없는 사건일 경우에 기사화가 쉽지 않다는 얘기다. 기자는 경찰이나 탐정이 아니다. 뭔가 경찰이 밝히지 못한 것까지 밝혀줄 거를 기대하고(그런 훌륭한 기자분들도 있겠지만…) 제보하면 안 된다. 대략적으로 인과 관계가 명확한 사건에 대해 언론화 시키고 싶을 때, 제보하는 게 좋다.

큰 언론사에만 제보하지 말자(중요) 간혹 내 사건을 ㅇㅇㅇ방송국에서 다뤄줬으면 좋겠다고 생각하는 경우가 있는데, 내가 겪은 사건이 큰 기삿거리가 될만한 사건이 아니라면 방송국에서 기사로 나가기 쉽지 않다. 기사화가 간절한 경우라면 큰 언론사에 먼저 제보해 보고 답이 없으면 좀 더 작은 언론사(라고 하지만 영향력 있는 언론사들이 찾아보면 많다)에 제보를 해보자. 또 통신사(연합뉴스, 뉴스1, 뉴시스 등)에서 기사화될 경우 다른 언론사들이 그 기사를 쓸 확률이 높아진다.


4. 제보를 아무리 해도 답이 안 온다면

솔직히 말해서 제보를 아무리 해도 답이 안 온다면, 당신의 일은 기삿거리가 안 된다는 말이다. 세상에는 너무나도 억울하고 슬픈 일들이 많다. 개가 사람을 문 것은 뉴스가 되지 않아도, 사람이 개를 문 것은 뉴스가 된다는 말처럼, 내 일에 특이한 점이 없다면 기사화까지는 어렵다. 내 베스트프렌드가 기자여도 힘든 일이다.

때때로 어떤 이유로 기사화를 시켰을 때 리스크가 크다는 의미일 수도 있다. 그럴 때 쓸 수 있는 방법은 각종 커뮤니티에 글을 올리는 것. 개인적인 얘기를 쓰기 어렵다면 최대한 익명으로 글을 올릴 수 있는 곳에 가서 내 역량을 총동원해서 글을 써보자. 그 글이 인기글이 된다던가 여기저기 퍼져나가면, 그 글이 영향력이 생겼다는 의미고(기삿거리가 된다는 의미고) 기자들이 역으로 먼저 연락이 올 것이다.


이 글을 어디에 쓸까 고민하다가, 무슨 일이 있을 때 네이버에 검색을 하시는 분들이 많을 것 같아서 블로그에 써봅니다.

최대한 도움이 되는 방향으로 정보를 전달하려고 하다 보니 조금 냉정한 글이 됐네요. 그래도 억울한 분들에게 조금이라도 희망이 됐으면 좋겠다는 바람을 담아. 궁금한 점은 댓글 남겨주세요.

+사진은 모두 부산 태종대의 고양이 사진. 모두의 심신 안정을 위해 아끼던 고양이 사진 대방출.

Loading