21 9월 2023

[전기전자] 빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

[전기전자] 빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

빛으로 작동하는 ‘다진법 메모리’ 가능성 열었다

입력
KIST

한국과학기술연구원(KIST)은 빛으로 작동하는 ‘다진법 메모리’를 구현할 수 있는 기술을 개발했다. 게티이미지뱅크

국내 연구진이 빛으로 작동하는 ‘다진법 메모리’를 구현할 수 있는 기술을 개발했다. 데이터 처리 속도를 획기적으로 높일 수 있는 다진법 컴퓨팅 시스템을 개발할 수 있을 것으로 기대된다.

한국과학기술연구원(KIST)은 황도경 광전소재연구단 책임연구원 연구팀이 이종수 대구경북과학기술원(DGIST) 에너지공학과 교수 연구팀과 공동연구로 새로운 0차원-2차원 반도체 인공접합 신소재를 개발하고 빛으로 작동하는 차세대 메모리 효과를 관찰하는 데 성공했다고 21일 밝혔다.

막대한 데이터를 관리하는 데이터센터는 막대한 전력을 소비한다. 전력 소비를 낮추고 연산 속도를 향상시킨 다진법 컴퓨팅 시스템이 연구되고 있다. 다진법 컴퓨팅 시스템도 기존 이진법 컴퓨팅처럼 전기신호로 작동하기 때문에 대규모 데이터 처리 수요를 감당하기에는 역부족이다.

다진법 컴퓨팅 시스템의 연산부와 저장부 간의 데이터를 전기신호가 아닌 빛을 활용해 전송하면 처리 속도를 획기적으로 높이고 전력 소비를 줄일 수 있다.

연구팀은 셀레늄화 카드뮴의 표면에 황화아연을 입힌 코어쉘 구조의 양자점과 몰리브덴황 반도체를 접합한 0차원-2차원 반도체 인공접합 신소재를 제작했다. 이 신소재를 이용하면 10나노미터(nm, 10억분의 1미터) 이하 크기의 양자점 내에 전자 상태를 저장하고 조절할 수 있다.

셀레늄화 카드뮴의 중심에 빛을 가하면 일정량의 전자가 몰리브덴황 반도체로 흘러나오고 전자의 빈 자리인 정공을 중심에 가두는 과정을 통해 신소재가 전도성을 갖게 된다. 이때 셀레늄화 카드뮴 내부는 양자화된다. 양자화는 물리량이 연속값을 갖지 않는 현상이다. 간헐적으로 가하는 빛으로 전자들을 차례로 가둬 발생하는 전계효과를 통해 몰리브덴황의 저항 변화를 유도한다.

이같은 과정을 통해 0과 1 상태만 존재하는 기존 메모리와 달리 0과 10 이상의 상태를 나누고 유지할 수 있게 된다. 황화아연 쉘은 인접한 양자점끼리 전하 누설을 방지해 단일 양자점 하나하나가 메모리 기능을 할 수 있도록 돕는다.

연구팀이 개발한 구조는 차세대 광메모리로서 활용 가능성이 있다. 다진법 메모리 현상의 효과를 신경망 모델링으로 검증한 결과 91%의 인지율이 달성됐다. 동일한 데이터셋을 실제 사람이 분류할 경우 인지율인 93.91%에 근접한 결과다.

황도경 책임연구원은 “이번에 개발한 다진법 광메모리 소자는 인공지능 시스템 등 차세대 시스템 기술 산업화를 앞당기는 데 기여할 것”이라고 말했다. 연구결과는 국제학술지 ‘어드밴스드 머티리얼즈’에 게재됐다.

Loading

17 9월 2023

[인공지능 기술] 작지만 오히려 좋아! 소형 언어 모델(sLLM)

[인공지능 기술] 작지만 오히려 좋아! 소형 언어 모델(sLLM)

01. 요즘 대세 생성형 인공지능(AI),

그리고 언어 모델

챗GPT로 대표되는 생성형 AI가 화두로 떠오른 가운데 언어 모델(Language Model)에 대한 관심도 덩달아 높아지고 있다. 언어 모델이란 대용량의 텍스트에서 언어 이해 능력과 지식을 학습하도록 훈련된 AI 모델을 일컫는다. 방대한 텍스트가 포함된 데이터로부터 정보를 추출하고 분류하는 것에서 더 나아가 직접 텍스트까지 생성해 낸다. 한 마디로 딥러닝을 통해 수많은 데이터를 미리 학습해 추론하고, 이를 문장으로 표현하며 대화를 이어나갈 수 있는 모델로서, 사실상 생성형 AI의 핵심 기술이라고 해도 과언이 아니다. 오늘날 챗GPT가 촉발한 언어 모델 경쟁은 국내로도 이어지고 있다. 국내 기업 역시 한국어 기반의 언어 모델 개발 계획을 잇따라 내놓으며 대세에 합류하는 추세다.

[그림 1] 국내 기업의 언어 모델 개발 추진 현황 (출처: KISTEP 과학기술정책센터)

세상에서 제일 유명한 생성형 AI의 대표주자, 챗GPT는 대형 언어 모델(LLM)을 기반으로 한다. 언어 모델의 크기는 통상 매개변수(파라미터) 개수에 따라 결정이 되는데 보통 1,000억 개 이상일 때 대형 언어 모델이라 분류된다. 챗GPT에 적용된 ‘GPT-3’의 매개변수는 1,750억 개이며, 구글이 개발한 ‘팜(PaLM)’의 경우 5,400억 개에 달하는 것으로 알려져 있다.

매개변수는 사람의 뇌에서 정보를 학습하고 기억하는 시냅스와 유사한 역할을 한다. 이에 이론상으로는, 매개변수의 수가 많으면 많을수록 성능이 높아지고 또 더욱 복잡하고 정교한 기능을 수행할 수 있다고 여겨진다. 내로라하는 빅테크들이 매개변수의 수를 언급하며 각자의 언어 모델에 대한 성능을 강조하는 이유도 여기에 있다.

그렇지만 과연 언어 모델에 있어 매개변수는 언제나 다다익선(多多益善)인 것일까? 해당 언어 모델이 어떤 목적으로 활용되는지에 따라 다르겠지만 그렇기 때문에 더더욱 언어 모델의 크기가 모든 경우의 유일한 해답이 되어주지는 않을 것이다. 때론 비즈니스 목표에 맞게 사전 최적화된 경량 모델을 이용하는 것이, 더욱 유리할 수도 있다는 말이다.

 

02. 떠오르는 샛별, 소형 언어 모델(sLLM)

 

이러한 배경에서 대형 언어 모델 열풍 속 소형 언어 모델(sLLM)이 등장했다. 소형 언어 모델이란 그 이름에서부터 알 수 있듯이, 대형 모델에 비해 매개변수의 수가 수십억 내지 수백억대로 비교적 크기가 작은 언어 모델을 말한다.

소형 언어 모델이 주목 받기 시작한 건 올해 초 메타의 ‘라마(LLaMA)’가 공개되고서부터다. 메타는 라마를 매개변수 개수에 따라 총 4가지 버전으로 내놓았는데, 그중 가장 작은 모델은 매개변수가 70억 개에 불과했고 가장 큰 모델 역시 650억 개로, 경쟁사들 대비 확연한 차이를 보였다. 그럼에도 메타는 이제까지와는 다른 의미로, 매개변수의 수를 강점으로 내세웠는데 개수가 적은 대신 용량을 다른 모델 대비 1/10 수준으로 낮출 수 있었기 때문이다. 이에 따라 훨씬 적은 컴퓨팅 파워가 요구돼 모바일이나 노트북으로도 활용할 수 있도록 실용성을 극대화했다고 강조했다. 게다가 메타는 이러한 장점을 더욱 돋보이게 하고자 라마를 오픈소스 형태로 공개하기도 했다.

[그림 2] 개방성과 효율성을 강조한 메타의 LLaMA (출처: Meta AI 블로그) 

구동 비용이 너무 높다는 점은 꾸준히 대형 언어 모델의 단점으로 지적돼 왔다. 한 마디로 그 크기만큼이나 훈련하고 유지하는 데 막대한 비용과 시간이 소요된다는 말이다. 구글의 팜은 4,000개의 칩으로 이뤄진 슈퍼컴퓨터 2대로 50일 이상 훈련되었고, 챗GPT의 GPT-3는 초기 훈련 비용에만 1000만 달러(약 132억 원)가 들었다. 그뿐만 아니라 챗GPT가 역대급 흥행했음에도 불구하고, 챗GPT 개발사 오픈AI는 최근 수천억 원대의 영업 손실을 기록했는데 그 원인으로 훈련 및 유지를 위한 비용이 지목됐다.

그에 반해 소형 언어 모델은 훈련에 요구되는 데이터나 시간, 비용이 상대적으로 적다는 큰 장점이 있다. 스탠퍼드대학교는 메타의 라마 중 매개변수가 가장 작은 버전(7B)을 기반으로 한 소형 언어 모델 ‘알파카 7B’를 선보였다. 알파카는 5만 2000개의 데이터를 토대로 AI 반도체를 탑재한 컴퓨터 8대를 통해 단 3시간 만에 훈련을 끝냈고, 개발에 소요된 비용은 오픈AI의 API 사용 비용 약 500달러와 라마 7B 사용 비용 100달러 안팎으로 총 600달러(약 77만 원)에 불과했다. 그럼에도 연구진에 따르면 알파카가 GPT-3.5와 질적으로 비슷한 성능을 보였다고 한다. 메일 작성, 생산성 도구 등 다양한 분야에서 GPT와 비교해 보았을 때 알파카는 90개 항목에서, GPT는 89개 항목에서 성능이 상대보다 앞섰다고 연구팀은 밝혔다.

[그림 3] 소형 언어 모델 Alpaca 7B (출처: 스탠퍼드대학교 기초모델 연구센터(CRFM) 블로그)

 

 

이를 이어 데이터 플랫폼 기업 데이터브릭스(Databricks)는 서버 1대에서 3시간 훈련해 개발한 매개변수 60억 개의 소형 언어 모델 ‘돌리(Dolly)’를 선보였고, AI 반도체 스타트업 세레브라스(Cerebras)는 매개변수 1억 개부터 130억 개 사이의 소형 언어 모델 7종을 개발해 오픈소스로 공개했다. 대형 언어 모델을 누구나 사용하기에는, 또 모든 서비스에 적용하기에는 너무 비싸고 무겁다. 이에 경량화하여 운영 비용을 줄이고 다양한 기기나 서비스에 적용하고자 하는 접근법이 하나의 트렌드로 떠오르는 추세다.

이러한 흐름에 발맞춰 구글 또한 최근 연례 개발자 컨퍼런스 ‘구글 I/O’를 통해 ‘팜2(PaLM2)’를 게코(Gecko), 오터(Otter), 비슨(Bison), 유니콘(Unicorn)의 4가지 크기로 세분화하여 출시한다고 밝힌 바 있다. 다양한 사용 사례에 맞게 모델의 크기를 선택하고 쉽게 배포할 수 있도록 한 것이다. 그중에서도 가장 규모가 작은 게코는 모바일은 물론 오프라인에서도 작동 가능한 것으로 알려졌다.

[그림 4] 다양한 규모의 언어 모델 제품군을 선보인 구글 (출처: Google 한국 블로그)

 

챗GPT가 가능한 최대한의 데이터를 끌어와 학습한, 수많은 정보를 보유하고 있는 백과사전이지만 누군가에게는 그보다 어느 한 분야에 특화된 전문 서적이 유용할 수 있다. 데이터브릭스의 CEO 알리 고드시(Ali Ghodsi)는 ‘챗GPT가 세상 모든 정보를 학습했지만, 기업은 세상의 모든 정보를 필요로 하지는 않는다. 챗GPT는 회사가 보유한 데이터를 학습한 적도 없다’라고 지적한 바 있다.

특정 산업이나 영역에 맞게 설계되고 최적화된 버티컬 AI(Vertical AI)로서 활용하기에는 소형 언어 모델이 더욱 적합하다. 비록 일상적인 대화 역량은 떨어질지라도, 학습 데이터의 깊이와 질에 따라 특정 분야에서는 대형 모델을 뛰어넘는 답변을 보여줄 잠재력이 충분하기 때문이다. 또한 다른 애플리케이션과 통합하여 사용하기에도 가볍고 유연한 모델이 더욱 효과적이다. 소형 언어 모델이 주목받게 된 가장 큰 이유이기도 하다. 미세 조정을 통해 매개변수를 줄이고 비용을 절감하며 정확도를 높이는 맞춤형 언어 모델로서 높은 활용도를 보일 것이라 기대받는다.

미국의 AI 스타트업 갓잇AI(Got It AI)는 챗봇 애플리케이션에 적용할 수 있는 기업용 소형 언어 모델 ‘엘마(ELMAR)’를 공개했다. 엘마는 작은 규모의 사내 구축형(온프레미스) 언어 모델이다. 데이터 외부 유출에 민감한 기업들을 타겟으로, 사내에 구축해 가볍게 실행할 수 있으면서도 미세 조정을 통해 성능을 높였다.

[그림 5] 온프레미스형 소형 언어 모델 ELMAR (출처: Got It AI) 

 

갓잇AI의 CEO 피터 레란(Peter Relan)은 모든 기업이 크고 강력한 모델을 필요로 하는 것은 아니며 오히려 데이터가 외부로 반출되는 것을 원하지 않는 기업이 많다고 언급하며, 소형 언어 모델의 또 다른 강점을 이야기했다. 폐쇄적이고 활용이 어려운 대형 모델에 비해 이러한 소형 모델은 기업의 입장에서 보다 경제적이고 신속하게 만들 수 있는 데다 보유한 데이터를 활용해 맞춤형으로 구축할 수 있기 때문이다. 이에 향후에는 정보 유출을 우려하는 기업이나 국가 정부가 저마다의 독자적인 언어 모델을 구축해 자체적으로 운영하는 모습을 볼 수 있지 않을까 조심스레 전망해 본다.

[출처] https://www.igloo.co.kr/security-information/%EC%9E%91%EC%A7%80%EB%A7%8C-%EC%98%A4%ED%9E%88%EB%A0%A4-%EC%A2%8B%EC%95%84-%EC%86%8C%ED%98%95-%EC%96%B8%EC%96%B4-%EB%AA%A8%EB%8D%B8sllm/

Loading

17 9월 2023

[TV/언론] 인플루언서의 놀이터로 전락… 소셜미디어가 서서히 죽어간다

[TV/언론] 인플루언서의 놀이터로 전락… 소셜미디어가 서서히 죽어간다

직장인 김민지(34)씨는 12년 전 대학생 시절 페이스북에 가입했다. 사진을 찍어 일상을 친구에게 보여주고, 메신저로 대화했다. 직장인이 된 이후에도 그랬다. 그런데 3년 전부터 페이스북을 방치하기 시작했다. 김씨는 “대학 때만 해도 화장 안 한 얼굴을 올려도 어색하지 않았는데, 언제부턴가 고급 레스토랑에 명품 옷을 입은 사진을 올려야 체면치레는 하겠다는 생각이 들면서 자연스레 멀어졌다”고 말했다.

페이스북이나 X(옛 트위터) 같은 소셜미디어 이용이 조금씩 시들해지고 있다. 스마트폰 등장과 IT 기술 발달로 가입자 수가 해마다 급증했지만, 2020년대 들어 변하고 있다. 가파르던 이용자 수 증가 폭이 꺾이고 있다. 미국 데이터 분석 업체 디맨드세이지에 따르면 세계 소셜미디어 이용자 수는 2010년대 후반에는 매년 4억~5억명씩 증가했는데, 2020년대 들어서는 증가 폭이 3억명대로 줄었고, 내년부터는 2억명대로 더 줄어들 것으로 예측된다. 경제 매체 비즈니스인사이더는 “소셜미디어는 서서히 죽어가고 있다”고 했다.

1.png일러스트=김영석

◇손흥민·블랙핑크가 지배한다

소셜미디어 인기가 시들한 원인으로는 유명인과 연관된 콘텐츠가 지나치게 많이 노출된다는 불만이 점증한다는 점을 먼저 꼽을 수 있다. 한국을 예로 들면 축구선수 손흥민이나 걸그룹 블랙핑크 같은 유명인이나 인플루언서가 눈에 많이 띄고, 주변인들이 올리는 평범한 일상은 뒤로 밀리고 있는 것이다. 소셜미디어 업체들이 알고리즘이 추천한 콘텐츠를 주로 노출하기 때문이다.

인스타그램의 경우 2010년 출시 이후 6년 동안은 언제 올렸느냐에 따라 시간 순으로 콘텐츠를 노출했다. 그런데 2016년부터 알고리즘이 추천하는 순서에 따라 콘텐츠를 노출하고 있다. 이런 변화에 대해 애덤 모세리 인스타그램 최고경영자(CEO)는 “시간에 따라 배치하다 보면 너무 많은 콘텐츠가 올라오다 보니 가입자들은 콘텐츠의 70% 정도를 확인하지 못하는 문제가 생긴다”며 “이런 문제를 막기 위해 (알고리즘을 통해) 이용자 관심사를 바탕으로 게시물 순위를 정한다”고 설명한다. 페이스북이나 틱톡 등 다른 소셜미디어도 마찬가지다.

2.png페이스북의 새 회사명 메타의 로고. /로이터 뉴스1

이런 알고리즘이 주도하는 콘텐츠 배치에 대한 반발 강도는 점점 높아지고 있다. 미국 사진작가 타티 브루닝(22)은 지난해 ‘인스타그램을 다시 인스타그램답게 만들기’라는 캠페인을 시작했다. 인스타그램에 접속하면 ‘뽀샵(사진 보정)’ 처리된 사진이나 전문가가 제작한 동영상만 볼 수 있다고 느꼈기 때문이다. 타티는 “콘텐츠에 대한 큐레이션(편집으로 가치를 부여하는 일)이 너무 심하다 보니 정보를 파악할 수 없게 됐다”고 했다.

불만의 강도가 높아지면서 최근 소셜미디어 이용자 증가폭은 눈에 띄게 줄어들고 있다. 인스타그램의 경우 세계 이용자 수가 2021년에는 3분기와 4분기 사이 1억3500만명이 늘었는데, 작년에는 3·4분기 사이에 1500만명 증가하는 데 그쳤다. 페이스북도 2010년대 중반 매년 2억명 넘게 증가하던 가입자 수가 올해는 7000만명 증가하는 데 머물렀다.

요즘에는 소셜미디어를 사용하더라도 친구나 지인에게만 사진을 보여주거나, 아예 메신저로만 활용하는 소극적 이용자로 변하는 경우가 많다. 모세리 인스타그램 CEO도 “이용자들이 (사진 공유보다) 다이렉트 메시지(DM), 비공개 커뮤니티, 그룹 채팅으로 옮겨가고 있다”고 했다.

◇도배된 광고, 정치적 오염도 걸림돌

넘쳐나는 광고도 소셜 미디어에 염증을 느끼게 하는 원인으로 꼽힌다. 소셜미디어 영향력이 커지다 보니 기업들은 광고에 돈을 퍼부었다. 페이스북의 광고 매출은 2017년 399억달러였는데, 매년 150억달러 넘게 증가해 2021년에는 1156억달러에 달했다. X의 광고도 2020년 32억달러에서 2021년 45억달러로 40% 증가했다. 온라인 조사 업체 서베이몽키가 미국인 1200명을 대상으로 실시한 조사에서 응답자의 74%는 “소셜미디어에 광고가 지나치게 많다”고 했다.

정치에 대한 싫증이 소셜미디어를 멀리하는 이유라는 분석도 있다. 정치적인 극한 대립 탓에 특정 진영을 비방하거나 선전하는 콘텐츠가 홍수를 이루고 있어 소셜미디어를 아예 떠나는 이들이 늘고 있다는 것이다. 미국에서는 트럼프 전 대통령과 바이든 현 대통령이 맞붙었던 2020년 대선 때 특히 비방 선전물이 넘쳐났다. 요즘은 한국도 마찬가지다.

X의 경우 최근 트위터에서 이름을 바꾼 것이 거부감을 불러 이용자 감소로 이어지고 있다. 트위터를 인수한 일론 머스크 테슬라 CEO는 지난 7월 트위터 이름을 ‘엑스’(X)로 바꾸고, 트위터를 상징하는 파랑새 모양의 로고도 검은색으로 바꾼다고 했다. 이런 발표가 나온 직후 X의 주간 활성 사용자 수는 4% 줄어들었다.

3.png그래픽=김의균

◇중소형 소셜미디어, 반짝 뜨다 주춤

대형 소셜미디어가 주춤하는 사이 알고리즘 방식을 지양하는 새로운 소셜 미디어가 틈새를 파고들기 위해 애쓰고 있다. 2016년 독일의 20대 엔지니어가 개발한 ‘마스토돈(Mastodon)’은 트위터와 비슷하지만, 알고리즘을 사용하지 않는다. 마스토돈은 지난해 머스크가 트위터를 인수하자, 이에 대한 거부감을 느낀 사람들이 몰려와 36만여 명에 머물던 하루 활성 사용자 수가 한 달 만에 260여 만명으로 증가했다.

2019년 등장한 프랑스 소셜미디어 ‘비리얼(Bereal)’은 매일 정해지지 않은 시간대에 모든 사용자에게 동시에 알람을 보낸다. 알림을 받으면 2분 내에 사진을 찍어 올려야 한다. 다른 사람과 비교하지 말고 초췌한 모습이라도 당당하게 공개하라는 취지다. 2021년 71만여 명이던 비리얼의 일간 활성 사용자 수는 지난해 10월에는 2000여만 명으로 급증했다.

이런 중소형 소셜미디어들도 최근 인기가 시들고 있다. 활성 사용자 수가 마스토돈은 올해 6월 110만명 선으로 내려왔고, 비리얼도 지난 3월 기준 600만명으로 떨어졌다. 이에 대해 뉴욕타임스는 “이용자들은 말로는 진정성이 중요하다고 하지만 실제로는 재미있고 짜릿한 순간을 다른 사람과 공유하고 싶어 한다”며 “결국 온라인에서는 일상의 현실적인 모습을 잘 올리지 않게 된다”고 했다. ‘온라인상 진정성의 역설’이 있기 때문에 알고리즘 없이 자연스러움을 추구하는 소셜미디어가 인기를 얻는 데 한계가 있다는 것이다.

[출처] https://www.chosun.com/economy/weeklybiz/2023/09/14/KFQYRZGDONADDCSMMPTEKJURFY/

Loading

26 8월 2023

[정보 (및 수학)] [주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

[정보 (및 수학)] [주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

[주말N수학] 세상을 바꾸는 ‘인공지능’ 뒤에 ‘함수’가 있다

입력

인문학자 이은수 서울대 철학과 교수 (왼쪽), 수학자 이승재 서울대 박사후연구원 (오른쪽). 수학동아 제공

함수는 어떤 값이 주어지면 그에 대응하는 다른 값이 주어지는 관계다. 함수라는 도구가 생기면서 복잡한 문제를 간단히 표현하고 심지어는 앞으로 벌어질 현상을 예측할 수 있게 됐다. 함수가 어떻게 발전했고 좋은 함수란 어떤 것인지 알아보면 함수가 얼마나 일상생활에서도 중요한지를 알 수 있게 된다.

○ 첫 번째 질문. 함수는 언제 처음 등장했는가.

Q(수학자). 함수는 어떤 역사가 있나요.

A(인문학자). “대응 관계와 함수를 구분해서 답해볼게요. 정해지지 않은 두 양, 즉 두 변수의 대응 관계는 오래전부터 연구됐어요. 고대 천문학에 남아있는 자료 중에는 특정 각도의 사인, 코사인 값 등을 계산해 놓은 표가 있어요. 이 표에는 각도와 계산 값 사이의 대응 관계도 담겨 있지요.

하지만 대응 관계라는 설익은 아이디어가 아니라 함수가 하나의 독립적인 수학적 탐구 대상이 된 건 17, 18세기예요. 프랑스 수학자 르네 데카르트(1596~1650)는 자신의 저서 ‘기하학’에서 임의의 두 양이 어떤 식에 의해서 상호 관계를 맺는 상황을 설명했어요. 말하자면 두 변수의 관계를 생각한 것이지요.

이후에 영국의 물리학자이자 수학자인 아이작 뉴턴(1643~1727)은 저서 ‘유율법’에서 서로 관계를 주고받는 여러 운동학적 변수 중에 다른 변수에 영향을 주는 변수를 ‘독립 변수(quantitas correlata)’, 그에 따라 바뀌는 변수를 ‘종속 변수(quantitas relata)’라는 라틴어로 구분해서 표현했어요.”

Q(수학자). 하지만 아직도 함수라는 단어가 나오지 않았어요. 언제 처음 함수라는 단어가 정의됐나요.

A(인문학자). “좋은 질문이에요. 보통 아이디어는 단어를 정의하기 전부터 존재하지만 특정한 단어로 쓰여야 그 뒤에 본격적인 발전이 일어나요. 17세기 말 독일 수학자 고트프리트 라이프니츠(1646~1716)가 남긴 원고를 보면 라틴어 동사 ‘fungor’에서 파생한 명사 funtio를 써서 대응 관계를 나타냈어요.

fungor는 영어로 말하면 perform으로, 한국어로는 ‘기능하다’라는 의미가 있어요. 그리고 이것의 명사 형태가 functio, 복수가 functiones예요. 영어로 바꾸면 함수를 뜻하는 단어인 function이 되지요.

이후 기하학적인 양 사이의 관계뿐 아니라 일반적인 양 사이에서도 함수 개념이 정립돼요. 대표적으로 1718년 ‘과학아카데미 회고록’에 스위스 수학자 요한 베르누이(1667~1748)가 함수를 새로운 수학적 대상으로서 정의한 구절이 다음과 같이 남아있습니다.”

어떤 양(y)이 특정한 방식(a)에 따라 변하는 양(x)과 변하지 않는 양(b)에 의해 구성되는 것( y = ax + b)을 변화하는 크기의 함수라고 부른다. Memoires de l Academie des Sciences 제공

 

○ 두번째 질문. 어떤 함수가 좋은 함수인가.

Q(인문학자). 수학에서는 모순이 없고 명확한 것을 가리켜 ‘well-defined(잘 정의됐다)’라고 해요. 함수 중에서도 잘 정의된 함수 소위 말해 좋은 함수가 있을 것 같아요. 좋은 함수가 되기 위한 조건이 있나요.

A(수학자). “함수는 우리가 이해하고 싶은 현상을 얼마나 잘 표현하고 얼마나 잘 예측하는지가 중요해요. 그러니까 기본적으로 예측이 틀린 함수가 나쁜 함수겠지요. 그렇지만 원하는 현상을 함수가 제대로 설명한다고 좋은 함수라고 단정 짓기는 어려워요. 함수 자체가 얼마나 변수들의 관계를 잘 표현하는지를 보여줄 수 있어야 좋은 함수지요.

아주 쉬운 예를 들어볼게요. 독자에게 ‘수학동아’를 한 권씩 나눠준다고 생각해볼게요. 독자가 1명이라면 1권, 10명이라면 당연히 10권을 나눠주면 될 거예요. n명의 독자가 있다면 n권이 필요하겠지요. 이를 함수로 표현하면 f(n) = n이에요.

단순하다고 생각할 수 있지만 여러 가지 의미로 정말 좋은 함수예요. 일단 n에 독자 수를 대입하면 우리가 원하는 값을 얻을 수 있고 식을 봤을 때 ‘이 식은 일대일대응이구나’, ‘우리는 독자 수만큼 책을 준비하면 되는구나’라고 문제를 온전히 이해할 수 있지요.”

Q(인문학자). 결국 우리가 관심 있는 현상을 표현할 수 있고 식을 이해하는 데에도 문제가 없으면 좋은 함수군요. 그런 좋은 함수를 찾는 게 어렵나요.

A(수학자). “정말 어려운 일이에요. 예를 들어 분할 함수는 자연수 n이 있을 때 이 자연수를 다른 자연수의 합으로 표현하는 방법의 가짓수를 찾는 거예요. n이 1, 2, 3일 땐 다음과 같지요.

수학동아 제공

앞의 규칙을 봤을 때 n = 4이면 4가지라고 예측하기 쉬워요. 그런데 n이 4일 때는 4가지가 아니라 5가지가 나와요. 1 + 1 + 1 + 1, 1 + 1 + 2, 1 + 3, 4를 비롯해 2 + 2가 하나 더 있습니다.

문제 자체는 이해하기 쉽지만 어떤 자연수 n을 집어넣었을 때 정확한 결과값을 내놓는 함수를 아직 찾지 못했습니다. 인도 수학자 스리니바사 라마누잔(1887~1920)이 최대한 근삿값을 찾을 수 있는 함수를 발견했지만 너무 복잡해요.

과학 혹은 일상생활에서 쓰는 함수는 많은 경우에 관측을 통해 입력값과 결과값을 보며 둘 사이의 관계를 유추한 것인데요. 이런 추론을 위해선 많은 관측값이 필요하고 아무리 관측값이 많아도 절대 정확성을 보장하지 못한다는 단점이 있어요.

예를 들어 1, 2, 4, 8, 16이라는 수열의 다음 값을 한번 예측해보세요. 아마 많은 사람이 32라고 대답하겠지요. x값이 차례로 1, 2, 3, 4, 5일 때 함수가 2의 거듭제곱인 형태, 즉 f(x) = 2x – 1이라고 생각한 결과예요.

그렇지만 ‘원 위에 x개의 점을 놓고 그 점들 사이에 선을 그었을 때 원을 나눌 수 있는 가장 많은 영역의 수’를 표현한 함수 f(x) = (x3 – 6 x2 + 23x – 18) + 1 역시 x = 1, 2, 3, 4, 5일 때 1, 2, 4, 8, 16이지만 x = 6일 때는 32 대신 31이라는 값을 내놓아요.

그러니 단순히 관측값만 가지고 ‘이 함수가 정말 우리 문제를 잘 표현하는 좋은 함수인가?’를 알기란 쉽지 않습니다. 그래서 많은 연구자가 지금까지도 어떤 현상을 정확히 표현하는 좋은 함수, 정확한 함수를 찾는 일을 하고 있지요.”

수학자 이승재 서울대 박사후연구원 (왼쪽), 인문학자 이은수 서울대 철학과 교수 (오른쪽). 수학동아 제공

Q(인문학자). 좋은 함수를 찾는 게 만만치 않은 일이라면 수학자는 한정된 시간 안에서 더 중요한 일에 집중해야 할 텐데요. 그러면 어떤 함수가 중요한 함수일까요.

A(수학자). “‘중요한 함수’를 정의하는 건 ‘좋은 함수’를 정의하는 것보다 더 어려운 문제예요. 굉장히 주관적일 수 있거든요. 그래도 보편적인 기준을 정하자면 역사적인 의미가 있는 함수, 수학뿐만 아니라 인류 문명의 발전에 기여한 함수, 범용적이고 보편적으로 활용할 수 있는 함수가 중요한 함수이지 않을까 싶습니다.

중고등학교 때 배우는 일차, 이차, 삼차 함수는 결국 직선, 포물선 등과 관련있기 때문에 중요하다고 말할 수 있어요. 삼각함수, 로그함수, 지수함수는 실제 물리적인 현상을 기술하고 우리 생활에서 떼려야 뗄 수 없을 만큼 다양한 곳에서 쓰이기 때문에 너무나 중요하지요.

물리학에도 함수가 중요하게 쓰여요. 대표적으로 뉴턴의 운동 제2법칙인 F = ma는 ‘이동하는 물체의 힘(F)은 그 물체의 질량(m)과 가속도(a)에 비례한다’는 물리 법칙을 표현하는 함수예요. 이 함수를 통해 단순히 가속도가 증가함에 따라 힘이 증가하는 것이 아니라 가속도에 비례한다고 정확히 표현할 수 있게 됐지요.

이런 여러 가지 함수의 중요성과 역사에 관심을 가질 분에게 추천하는 책이 있는데요. 이안 스튜어트 영국 워릭대 수학과 교수가 쓴 ‘세상을 바꾼 17가지 방정식’이라는 책입니다. 중요한 함수들에 대한 수학자들, 혹은 과학자들의 생각을 잘 살펴볼 수 있는 좋은 책 중 하나입니다.”

수학자 이승재 서울대 박사후연구원 (왼쪽), 인문학자 이은수 서울대 철학과 교수 (오른쪽). 수학동아 제공

 

○ 세번째 질문. 함수는 세상을 어떻게 바꿨는가.

Q(인문학자). 흔히 사칙연산만 하면 사는 데 아무 지장이 없는데 수학을 왜 이렇게 많이 배우냐고 묻는 사람이 있어요. 하지만 함수는 사칙연산 다음으로 도움되는 개념이에요. 곳곳에서 대응 관계를 파악하려는 노력을 많이 볼 수 있거든요.

예를 들어 사람들이 주식에 투자할 때 과거의 데이터로 이익률을 높이는 특정한 함수를 찾아서 막대한 수익을 얻고자 하지요. 이처럼 수학의 많은 개념 중에서는 우리 생활에서 함수가 차지하는 역할이 상당히 커요.

인문학적 관점에서 함수가 남긴 의미를 이야기해볼게요. 함수를 도입하고 난 뒤 사람들은 특정한 개체 및 단독 개념만 탐구하기보다는 두 개체 및 두 개념 사이의 관계를 본격적으로 탐구하기 시작했어요. 그러면서 지식의 확장이 일어났지요. 전혀 관계가 없어 보이는 것 사이에도 우리가 아직 알지 못하고 규명하지 못한 관계가 있다고 생각하게 된 거예요.

최근 실질적인 가치를 창출하는 스마트 데이터와 관련해 다시 주목받는 지식 그래프(개념, 사물, 사건 등의 개체의 관계를 나타내는 그래프로 정보와 지식을 구조화해 표현하는 방법)는 지식과 지식 사이를 연결한 관계망이에요. 기존에 따로따로 떨어뜨려 놓고 생각했던 지식 사이에서 관계를 찾아 연결하는 말하자면 함수적인 사고를 한 것이지요.

사회가 복잡해질수록 특정 개체에 대한 1차원적인 접근으로는 해결할 수 없는 문제가 너무나 많아요. 그래서 고도화된 관계를 이해할 수 있는 능력 자체가 훨씬 중요해졌지요. 그런 의미에서 함수가 우리의 사유하는 방식 자체에 미친 영향이 크다고 생각해요. 연구원님이 생각하기에 수학, 과학에서 함수는 또 어떤 의미에서 중요한가요.

A(수학자). “함수는 세상을 정말 많이 바꿨고 지금도 계속해서 바꾸고 있어요. 과학에서는 먼저 현상을 관측하고 이를 통해 가설을 세우고 그 가설이 사실인지 검증해요. 이때 함수는 관측, 가설, 결과, 예측 모든 것을 연결해요.

기존에 있었던 값으로부터 어떤 관계가 있을지 예상하기 위해서는 그 관계를 표현할 수 있는 함수가 필요하고 예측이 맞는지 확인하기 위해서는 예측값과 결과값이 모두 있어야 하니까요.

인공지능도 수많은 입력값, 결과값을 함께 학습시키고 그렇게 학습된 인공지능이 정말로 우리가 원하는 예측을 할 수 있는지 보는 게 본질이잖아요. 결국 입력값과 결과값을 연결할 수 있는 함수가 무엇이고 그 함수를 우리가 잘 예측하고 학습할 수 있는지가 중요하지요. 인공지능이 지금 세상을 어떻게 바꾸고 있는지 보는 입장이라면 함수가 세상을 바꿨다고도 얘기할 수 있을 것 같아요.

과학 관점에서 추가로 이야기를 드리면 뉴턴은 F = ma와 같은 함수를 이용해서 고전역학이라는 하나의 물리계를 완성했어요. 특히 뉴턴은 고전역학을 정립한 사람으로도 유명하지만 미분이 처음 등장한 ‘프린키피아’라는 책을 쓴 사람으로도 유명하잖아요.

미적분이 함수와 만나면서부터 실제 물리적인 현상을 기술할 수 있는 엄청난 도구들을 손에 쥐게 됐지요. 그다음부터 정말 새로운 세상을 만들어 갈 수 있었습니다. 이밖에도 다양한 함수가 우리가 알고 싶은 세상을 이해할 수 있게 했지요.”

[출처] https://n.news.naver.com/article/584/0000024076?ntype=RANKING

Loading

22 8월 2023

[사회과학] 신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

[사회과학] 신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

신문협회 “50년치 뉴스로 AI 언어 학습, 네이버 등이 저작권 침해”

IT업계에 5대 요구사항 전달

한국신문협회는 22일 ‘생성형 인공지능(AI)의 뉴스 저작권 침해 방지를 위한 신문협회 입장’을 내고 “정당한 권원(어떤 행위를 정당화하는 법률적인 근거) 없이 뉴스 콘텐츠를 AI 학습에 이용하는 것은 언론사가 뉴스 콘텐츠에 대해 갖는 저작권 및 데이터베이스(DB) 제작자로서의 권리를 침해하는 것”이라고 밝혔다.

신문협회는 이날 입장문 발표와 함께 네이버·카카오·구글·MS 등 국내외 대형 IT(Information Technology·정보기술)업체들에 대해 ①뉴스 저작권자와 이용기준 협의 ②‘글로벌 AI 원칙’ 준용 공표 ③생성형 AI 학습 데이터의 출처 등 공개 ④뉴스 콘텐츠 이용 방식 구체적으로 명시 ⑤뉴스 저작물에 대한 적정한 대가 산정 기준 마련 등 5대 요구사항을 전달했다.

네이버가 오는 24일 초거대 AI ‘하이퍼클로바X’ 오픈을 예고하는 등 언어학습에 기반한 각종 AI 서비스의 확대를 앞두고 있는 가운데, 이들 기업을 상대로 뉴스 저작권에 대한 입장을 표명한 것이다. 예컨대 하이퍼클로바X는 뉴스 50년 치, 블로그 9년 치에 달하는 한국어 데이터를 학습했으나, 저작권자들의 허락을 받지 않은 채 뉴스 콘텐츠를 AI 학습에 이용했다는 지적을 받아왔다.

신문협회는 이날 입장문에서 “생성형 AI는 뉴스 콘텐츠로 학습해 결과물을 생성해내면서도 언론사로부터 이용 허락을 받지 않은 채 사용하고 있으며, 뉴스 콘텐츠를 이용해 생성한다는 인용 표기도 이뤄지지 않고 있다”며 “생성형 AI를 학습시키기 위해서는 뉴스 콘텐츠의 저작권자인 언론사로부터 이용 허락을 받아야 침해 행위를 벗어날 수 있다”고 지적했다. 신문협회는 “이들 업체는 생성형 AI 개발을 위한 뉴스 콘텐츠 이용에 대해 저작권법상 ‘저작물의 공정한 이용(제35조의5)’에 해당돼 저작권 침해가 아니라는 주장을 하고 있지만, 이는 공정 이용에 해당하지 않는다”며 “AI 기업이 뉴스 콘텐츠를 학습 데이터로 이용하기 위해선 언론사로부터 이용 허락을 받는 것은 물론, 사용료를 지급해야 할 것”이라고 밝혔다.

신문협회는 하이퍼클로바X와 관련, “네이버는 기사를 ‘연구’에 활용할 때는 언론사 동의를 받지 않도록 한 옛 약관을 적용해 제휴 언론사들의 기사 50년치를 AI 학습에 활용했다”며 “이는 명백한 불공정 행위”라고 지적했다. 신문협회는 “이미 AI 모델을 활용해 수익이 발생하는 상황에서 이들 기업은 손해배상을 하거나, 뉴스 콘텐츠를 활용한 것에 대해 보상을 해야 할 것”이라고 했다.

신문협회는 “향후 AI 기술 발전 등 디지털 미디어 시대에 맞는 저작권 보호 기반을 마련하기 위해 제도 개선이 필요하다”며 “뉴스 콘텐츠를 무단으로DB화 하는 것을 방지하는 등 급변하는 디지털 환경에서 뉴스 저작권 보호가 긴요하다”고 말했다.

[출처] https://www.chosun.com/culture-life/broadcast-media/2023/08/22/PY6AHWKEUNGNRBCU4JF6A2EXGE/

Loading

19 8월 2023

[알아봅시다][보도자료 작성법]  누구나 쉽게 보도자료를 쓸 수 있습니다.

[알아봅시다][보도자료 작성법]  누구나 쉽게 보도자료를 쓸 수 있습니다.

누구나 쉽게 보도자료를 쓸 수 있습니다.

보도자료(press release)는 새로운 소식을 세상에 알리기 위한 목적으로 작성한 공식 발표문입니다.

보도자료는 기업 홍보의 필수적인 수단입니다. 매일 많은 기업, 정부기관, 단체가 보도자료를 작성해 기자에게 배포하고 보도자료 배포 플랫폼인 뉴스와이어와 회사 웹사이트에 게재하고 있습니다.

언론 홍보 경험이 없는 중소기업은 보도자료 작성과 배포를 어려운 일로 생각합니다. 그러나 교육과 꾸준한 훈련을 통해 누구나 보도자료를 작성할 수 있습니다.

뉴스와이어 보도자료 서비스를 선택하고 보도자료를 등록하면 담당 기자와 언론에 타겟 배포해 기사화됩니다.

보도자료의 구성
  • 제목: 글의 제목을 붙입니다. 제목에 이어 부제목을 둘 수도 있습니다.
  • 날짜: 보도자료를 발표한 날짜를 명시해야 합니다.
  • 출처: 보도자료를 발표한 회사명을 밝혀야 합니다.
  • 본문: 맨 첫 문단은 내용 전체를 요약합니다. 이어 중요한 순서에 따라 뉴스 스타일로 작성합니다.
  • 회사 소개: 연혁, 사업, 상품, 규모, 위치 등을 짤막하게 정리합니다.
  • 연락처: 기자가 문의할 수 있도록 연락처와 웹사이트를 넣습니다.
작성 순서
  • 주제 선정

    적절한 주제를 선정합니다. 흥미롭고 중요한 뉴스가 될 가능성이 있는 주제를 우선적으로 선택하는 것이 좋습니다.

  • 정보 수집

    보도자료 작성에 필요한 정보를 수집합니다. 이 과정에서는 대상에 대한 자세한 내용, 관련 사실, 관련자 의견 등을 수집합니다. 인용문에 넣을 대표이사나 책임자의 인터뷰도 합니다.

  • 독자 설정

    보도자료를 작성하는 이유와 목적 그리고 주된 독자가 누구인지 정합니다. 독자의 독해 능력, 관심사, 기대치 등을 고려하고 무엇을 가장 궁금해할지 생각합니다. 독자에 따라 용어의 난이도, 글의 길이가 달라지고, 강조점도 바뀔 수 있습니다. 전문가에게 알리는 글이라면 자세한 정보를 담아야 하므로 길게 쓰는 것이 좋습니다. 종합지, 업계 전문지, 경제지, 잡지 등 여러 매체 가운데 어디를 주 타겟으로 할지 염두에 두는 것도 필요합니다.

  • 초안 잡기

    글을 쉽게 쓰는 요령은 쓰기 전에 핵심 메시지를 정하고, 문단 설계를 해 문단별로 작성하는 것입니다. 문단 개요는 설득력 있고 논리 정연한 글을 쓰는 데 도움이 됩니다. 처음부터 잘 쓰려고 애쓰지 말고 초안을 빨리 쓴 뒤 여러 번 고치는 습관을 갖는 것이 필요합니다. 문단 개요는 문단 별로 핵심 내용을 키워드로 열거한 목록입니다. 문단 설계에서 중요한 것은 앞에서부터 중요한 것을 배치하는 것입니다. 필요하다면 순서를 바꿉니다. 개요를 보면 글의 구성 요소들을 어떻게 연결해야 하는지 아이디어가 떠오를 것입니다.

  • 제목 달기

    제목은 뉴스를 읽는 독자의 관심을 끌고 전체 내용을 이해하는 데 도움이 되도록 작성합니다. 제목은 짧으면서도 뉴스의 핵심 내용을 담아내 한눈에 무슨 일이 일어났는지 알아볼 수 있어야 합니다. 제목만으로 전달이 어렵다면 부제목을 붙입니다.

  • 도입부

    도입부(리드)는 문장 하나로 어떤 사건이 일어났는지 압축해 설명합니다. 독자는 제목과 첫 문장을 보고 계속 읽을지 여부를 결정합니다. 리드는 뒤따라올 내용을 예고하는 역할도 할 수 있어야 합니다. 독자의 관심을 끌기 위해서는 강렬한 인상을 줄 수 있는 도입부가 필요합니다.

  • 세부 문단

    개요 목록을 보고 각 문단을 순서대로 작성합니다. 하나의 문단은 하나의 메시지를 전달한다는 생각으로 작성합니다. 문단은 한 문장이 될 수도 있지만, 상세한 설명이 필요하다면 2~3개의 문장으로 나눕니다. 각 문단에 어느 정도까지 세부 정보를 넣어야 독자의 궁금증을 해소할 수 있는지 생각하면서 작성합니다.

  • 인용문

    사장, 임원 등 관련 인물의 인용문을 넣으면 뉴스의 신뢰성이 높아집니다. 인용문이 있으면 기자는 마치 직접 취재를 한 것처럼 기사를 쓸 수 있습니다. 인용문은 말하는 사람의 전문적인 식견을 느낄 수 있게 작성합니다. 객관적 사실이 아닌, 주관적인 주장은 인용문으로 쓰는 것이 좋습니다.

  • 회사 소개

    보도자료 본문 뒤에는 반드시 회사 소개와 연락처를 붙입니다. 회사 소개는 설립 연도, 비전, 사업 분야, 주요 상품과 브랜드, 직원 수, 매출 규모 등을 요약하면 됩니다. 기자가 궁금한 것을 취재할 수 있도록 이름, 소속, 이메일, 전화번호 등 연락처를 붙입니다. 회사 웹사이트도 기자가 취재하는 데 도움이 됩니다.

  • 이미지와 영상

    뉴스에 관련된 사진동영상인포그래픽 등 첨부 파일을 넣으면 내용을 더욱 구체적으로 이해하고, 기억할 수 있도록 도와줍니다. 뉴스 가치도 높일 수 있습니다. 사진은 가급적 전문가가 촬영하고, 제품은 조명이 있는 스튜디오에서 촬영할 것을 권장합니다. 통계는 독자가 시각적으로 느낄 수 있도록 그래프나 도표로 만들어 함께 배포하면 좋습니다.

  • 소리 내 읽기

    글을 쓸 때와 내가 쓴 글을 소리 내어 나의 귀로 들을 때는 느낌이 상당히 다릅니다. 읽다 보면 문장이 매끄럽지 않거나 의미 전달이 안 되는 부분을 쉽게 찾을 수 있습니다. 시간 여유가 있으면 다음 날 다시 읽어봅니다. 그러면 글과 조금 더 거리를 둘 수 있게 돼 새로운 관점에서 글을 볼 수 있게 됩니다. 다른 사람에게 감수를 부탁하면 더욱 도움이 됩니다.

  • 교정

    어느 정도 글을 완성했으면 프린트로 인쇄해 교정합니다. 펜으로 오류를 표시한 후, 수정합니다. 단어, 표현, 배열을 바꿔보고, 마지막으로 제목과 도입부를 고칩니다. 불필요한 내용, 중복된 부분은 제거합니다. 만연체보다는 짧은 글이 힘 있고 머리에 쏙 들어옵니다. 글 작성 프로그램에서 맞춤법 검사를 실행해 오탈자가 있는지 최종적으로 확인합니다.

  • 배포

    담당 기자와 언론사를 신중하게 잘 선택해 보도자료를 배포합니다. 기자를 잘 모르면 보도자료 배포 플랫폼인뉴스와이어 서비스를 이용해 보도자료를 등록하면 뉴스와이어가 담당 분야 기자와 언론사에 타겟 배포합니다. 보도자료를 회사 웹사이트에 게재하고 소셜 미디어로 전파할 수도 있습니다. 배포 타이밍은 경쟁사들의 활동이나 산업 동향을 고려하고, 사내 관계 부서 등과 협력하여 일정을 조율하는 것이 좋습니다.

  • 모니터링

    또한 보도자료를 발송한 후 그 결과를 측정하는 것이 중요합니다. 뉴스를 모니터링해 어떤 매체가 보도자료를 했는지 분석해 보고서를 작성합니다. 매체의 중요도와 영향력을 감안해 홍보 효과를 판단합니다. 뉴스와이어는 보도자료 배포 후 결과 보고서를 제공합니다.

작성 시 주의할 점
  • 객관성

    보도자료는 기업, 기관, 단체가 작성되지만, 객관적인 입장에서 작성되어야 합니다. 내용에 과장되거나 사실과 다른 내용을 넣어서는 안 됩니다. 편집 가이드라인을 참고해 광고 같은 표현은 삼가는 것이 좋습니다.

  • 명확성

    보도자료는 명확하고 직설적으로 작성해야 합니다. 읽는 사람들이 정보를 쉽게 이해하고, 기억할 수 있도록 구성해야 합니다.

  • 적당한 길이

    보도자료는 너무 짧거나 길지 않게 써야 합니다. 길이가 적당하면 누구나 쉽게 이해할 수 있습니다. 더 많은 정보가 필요한 경우 연락할 방법이 포함되어야 합니다.

  • 쉬운 문장

    보도자료는 문장은 직설적이고 단순해야 합니다. 쉽게 쓰려면 말하듯이 쓰는 것이 좋습니다. 복잡한 문장이나 어려운 단어는 지양하고, 간결하면서도 명확한 문장을 사용하는 것이 좋습니다.

  • 정확한 문법

    보도자료는 반드시 올바른 문법과 맞춤법을 사용해야 합니다. 오타나 문법 오류는 발표기업의 신뢰성을 떨어뜨릴 수 있습니다.

  • 뉴스 스타일

    언론사는 고유명사, 날짜와 숫자, 기호, 외국어 표기 등에 대한 공통의 규칙을 갖고 있습니다. 뉴스와이어가 신문사의 스타일북을 검토해 만든 뉴스 스타일에 따라 작성하는 것이 좋습니다.

[출처] https://www.newswire.co.kr/?ed=4

Loading

9 8월 2023

[알아봅시다] [취재파일] 돈 쓰지 않고 기자에게 제보하는 법 

[알아봅시다] [취재파일] 돈 쓰지 않고 기자에게 제보하는 법 

[취재파일] 돈 쓰지 않고 기자에게 제보하는 법

박찬범 기자

입력 : 2022.02.18 13:26|수정 : 2022.02.18 14:23

제보의 종류

제보는 예전이나 지금이나 기자들에게 중요합니다. 취재의 원동력이기 때문입니다. 먼저 제보의 종류를 분류해 보겠습니다.

① 영상 제보

영상 제보는 날이 거듭할수록 중요도가 올라가고 있습니다. 휴대전화 기기 발달과도 연관 있습니다. 화질이 좋아졌기 때문입니다. 휴대전화 동영상 촬영 파일도 방송으로 내보낼 수 있을 정도로 우수합니다.

큰불이 났다는 소식을 들었다고 가정해보겠습니다. 근데 취재진이 현장에 가보니 불이 어느 정도 꺼졌습니다. 이때 취재진이 절실한 게 화재 당시 촬영된 생생한 영상입니다. 휴대전화로 촬영된 동영상, 차량 블랙박스에 찍힌 영상 모두 활용할 수 있습니다.

이 때문에 기자들이 현장에 도착했을 때 상황이 종료됐다면 주변 목격자들을 상대로 영상 촬영 여부를 제일 먼저 물어보곤 합니다.

② 텍스트 제보

영상 제보를 뺀 나머지 대부분 제보는 텍스트 제보라 할 수 있습니다. 각 언론사 제보 창구를 통해 글을 남기는 형식입니다. 텍스트 제보는 정리된 자료나 문서가 될 수도 있고, 자신의 경험하거나 들은 내용을 풀어서 글로 풀어써 제보할 수 있습니다. 이밖에 인터넷 주소 링크를 보내는 방식 등 다양합니다.

③ 음성 제보

음성 제보는 녹취록을 제공하는 경우가 가장 많습니다. 자신이 누군가와 대화한 내용을 녹음한 뒤 제공하는 방식입니다. 대화 당시의 상황이 고스란히 담겨 있는 만큼 제보 신빙성이 높다고 볼 수 있습니다.

제보의 성격

제보의 성격도 다양합니다. 몇 가지로 분류한다는 게 쉽지 않지만, 크게 4가지로 나눠볼 수 있습니다.

① 사건·사고 제보
강력범죄, 교통사고, 화재, 안전사고 같은 것입니다. 기자들은 제보를 통해 사건·사고 현장에 먼저 빨리 갈 수 있고, 상황을 목격한 목격자들 빨리 찾아낼 수 있습니다. 신속성이 중요합니다. 이 때문에 언론사들은 제보 창구를 만들고, 24시간 운영을 하는 것입니다.
박찬범 취파
② 미담 제보
선행을 제보하는 것입니다. ‘선한 영향력’이란 단어가 있을 정도로 꾸준히 기사 수요가 있는 영역입니다. 본인의 선행, 혹은 주변인의 선행을 제보할 수도 있습니다.

박찬범 취파
③ 비리 제보
개인 혹은 단체가 저지를 불법 행위에 대한 제보할 수 있습니다. 제보자는 자신의 신변 보호를 위해 익명으로도 제보할 수 있습니다. 이러한 제보는 신속성보다는 정확성이 중요합니다. 한 개인이나 단체의 잘못된 부분을 파헤치는 것인 만큼 제보 내용이 사실인지 검증이 필요합니다.

박찬범 취파
④ ‘사각지대’ 제보
사각지대 제보는 법과 제도가 미비한 탓에 발생하는 문제들을 지적하는 것입니다. 예를 들어 환경오염 사각지대, 복지 사각지대, 사회적 약자 보호 사각지대 등이 있습니다. 코로나19 사태 이후로는 방역 사각지대에 대한 제보도 많습니다. 기자는 제보를 바탕으로 문제점을 지적하고, 기사를 통해 변화를 이끌어낼 수 있습니다.

박찬범 취파
⑤ 기타
앞선 네 가지 분류에도 담을 수 없는 수많은 성격의 제보들이 있습니다. 제보는 국내뿐 아니라 해외에서 들어오는 제보들도 있습니다.

제보 방식

제보 방식도 다양해지고 편리해지고 있습니다.

① 전화
가장 전통적인 방식입니다. 언론사마다 제보 전용 번호가 있습니다. 제보 번호를 전화를 걸면 기자 혹은 직원이 받아 제보 내용을 받아적습니다.

② 인터넷
각 언론사 인터넷 홈페이지에 들어가 제보하는 방식입니다. 자료 업로드도 가능합니다. 이 때문에 영상, 텍스트, 음성 등 자유롭게 제보할 수 있습니다.

③ SNS
가장 쉽게 접근하고 간편합니다. 평소 사용하는 SNS 계정을 통해 언론사 전용 계정에 메시지를 보내 제보할 수 있습니다. 간편하고 신속하다는 점이 장점입니다.

④ 기자 직접 제보
기자들은 저마다 이메일 주소가 공개돼 있습니다. 평소 신뢰하는 기자가 있었다면, 기자 개인에게 직접 제보를 하는 방법도 있습니다.

기자는 어떤 제보를 좋아해야 할까?

언론진흥재단 교육을 받은 바 있습니다. 이때 기사에 필요한 3가지 요소를 배웠습니다. 이 3가지 요소는 추후 내가 쓴 기사의 정당성 입증해야 하거나, 문제가 없음을 증명해야 할 때 근거로 쓰이기도 합니다. 그만큼 기자는 이 3가지 요소를 취재를 통해 확보해야 합니다. 따라서 제보도 이러한 기준에 따라 좋아해야 할 필요가 있습니다.

① 공익성
기사가 말 그대로 공익적 가치가 있는지 따져봐야 합니다. 개인의 이익을 위한 기사가 아닌 사회에 이익이 되는 기사여야 한다는 것입니다. 제보 역시 공익적 가치를 띌수록 기자들이 더 많은 관심이 생기게 됩니다.

② 진실성
기자들이 흔히 말하는 팩트(Fact), 사실입니다. 진실성이란 이러한 객관적 사실이 모였을 때 기사 취지에 부합하는지 여부입니다. 그만큼 기사에서 말하고자 하는 바가 사실에 기반한 것인지 따져야 한다는 것입니다. 제보 역시 진실성을 충족하려면 사실에 해당하는 객관적인 증거와 자료가 뒷받침돼야 합니다. 이 때문에 기자들은 제보에 담긴 내용을 입증할만한 자료들이 있는지 따져보기 마련입니다.

③ 상당성
상당성은 충분히 취재 과정을 거쳤는지 물어보는 것입니다. 해볼 수 있는 것을 다 해봤냐는 취지이기도 합니다. 만나봐야 할 사람을 만나고, 분석해야 할 자료를 보고, 해명을 들어야 할 사람에게도 물어봤느냐 입니다. 반론 취재도 여기에 해당합니다. 제보 내용이 여러 주변 사람들을 통해 복수검증이 된 내용일수록 좋아해야 합니다. 그렇지 않다면 제보 내용이 틀릴 수도 있는 만큼 상대방에 대한 반론 취재는 필수입니다.

기자는 어떤 제보를 좋아할까?

기자가 마땅히 좋아해야 하는 제보가 있다면, 마냥 좋아하는 제보도 있습니다. 언론사 제보해본 경험이 있다면, 공감할 수 있을 것입니다.

① 희소성
언론사는 소위 ‘단독’ 경쟁을 합니다. 기자마다 특종에 대한 욕심이 있습니다. 다른 기자들이 모르는 내용을 기사로 써 알리고 싶어 합니다. 그만큼 제보가 다른 언론사 기자들이 모두 안다고 하면 관심도가 떨어지기 마련입니다. 물론, 제보가 공익성, 진실성, 상당성에 부합하는 이른바 ‘대박 제보’라면 희소성 여부는 중요하지 않습니다.

② 명백한 입증 자료
이 부분은 ‘진실성’과 같은 맥락입니다. 기자는 기사 한 문장마다 책임져야 합니다. 그만큼 제보 내용이 사실임을 보여줄 수 있는 자료가 많을수록 선호합니다. 물론, 기자 본인이 제보 내용을 바탕으로 사실을 추가로 밝혀낼 줄 알아야 합니다.

③ 실명 제보
제보자가 실명 제보자인 것도 중요합니다. 실명 제보자는 기자가 직접 연락을 취해 추가 내용을 취재할 수 있습니다. 하지만 익명 제보는 다른 제3자에게 제보 내용이 사실인지 추가 검증해야 합니다. 그만큼 시간이 더 걸립니다.

신변 노출이 걱정돼 익명 제보를 하는 경우가 있을 겁니다. 이럴 경우는 기자와 이메일이나 다른 방식으로 연락할 수 있는 창구를 마련하는 게 필요합니다. 아니면 기자와 통화한 뒤 익명성을 보장해달라고 요구하면 됩니다.

제보할 언론사는 어떻게 골라야 할까요?

그렇다면 제보를 희망하는 당사자들은 어느 언론사를 선택할지 고민에 빠질 수도 있습니다. 딱 한 언론사만 골라 제보할지, 아니면 여러 언론사에 동시에 할지 선택의 기로에 놓일 수 있습니다.

① 한 언론사만 고르기

기자는 앞서 ‘희소성’ 있는 제보를 좋아한다고 했습니다. 다른 언론사와 속도 경쟁을 할 때가 있습니다. 하지만 나만 알고 있는 제보라면 얘기가 달라집니다. 기자 개인이 충분한 시간을 가지고 취재할 수 있습니다. 오보가 날 확률도 줄어들고, 심층 취재를 할 수 있습니다.

따라서 내 제보 내용이 하루빨리 기사로 나가는 것보다 정확하고, 자세하게 나가길 원한다면 평소 신뢰하고 있는 한 언론사를 골라 제보하는 것을 추천합니다. ‘비리 제보’, ‘사각지대 제보’의 경우는 단정할 순 없지만, 한 언론사에 제보하는 게 더 나을 수 있습니다. 만약에 한 언론사에 제보했다가, 기사화가 안 됐다면 다른 언론사에 다시 제보하여도 늦지 않습니다.

가끔 소위 ‘좋은 제보’라고 할 수 있는 게 여러 언론사에 동시에 들어가면서 오히려 빛을 못 보는 경우가 있습니다. 이미 다른 언론사가 취재에 들어갔다고 생각하고, 취재 시작 자체를 안 하는 경우가 있기도 합니다.

② 여러 언론사 고르기

여러 언론사를 전략적으로 골라야 할 때도 있습니다. 당장 하루빨리 보도가 나갔으면 할 때 선택하는 방법입니다. 기자들이 오히려 다른 언론사도 알고 있다는 생각에 취재를 서두를 수도 있습니다.

따라서 당장 지금 아니면 제보할 수 없는 것들이라면 여러 언론사에 제보하는 것을 추천합니다. 사건·사고 제보가 이 유형에 가깝다고 볼 수 있습니다. 다만, 모든 언론사가 아는 만큼 기자 개개인에 충분히 취재 시간이 부여되지 않을 수도 있습니다. 이러한 부작용으로 가끔 잘못된 내용이 보도되기도 합니다. 사건·사고의 원인을 파헤친다거나 분석이 필요한 경우라면 한 언론사에만 제보하는 게 더 낫다고 생각합니다.

제보할 때 돈이 필요할까?

모든 언론사의 제보 창구 이용은 무료로 알고 있습니다. 제보를 어떻게 할지 막막한 분들이 있다면, 위에 정리해 놓은 대로 언론사 제보 전화, 인터넷 홈페이지 제보, SNS 제보를 활용하면 됩니다.

최근 뉴스 제보대행사 업체가 등장했습니다. 제보자가 제보 내용을 넘기면 여러 언론사 기자들에게 이메일로 동시에 전송해주는 시스템입니다. 그리고 수고비를 받는 사례가 있습니다. 힘들이지 않고 여러 언론사에 제보하고 싶다면 이용해도 좋을 것 같습니다. 다만, 보도 확률이 올라간다고 장담할 수 없습니다. 그리고 제보의 희소성은 급락합니다.
▶ “보도 성공률 100%” 뉴스 제보대행사, 직접 찾아가봤다

취재·보도 100%는 없다

기자들이 제보자와 처음 만났을 때나 연락했을 때 꺼리는 표현이 있습니다. 무조건 기사를 쓸 수 있다는 식의 표현입니다. 취재 과정에는 수많은 변수가 있기 때문입니다. 앞서 말한 공익성, 진실성, 상당성이 어느 하나라도 충족하지 않으면 보도가 안 될 수도 있습니다. 이러한 이유로 언론사에 제보해도 기사화될 확률이 수치상 높지 않은 것입니다.

앞으로 제보를 희망하는 분들은 ‘취재가 100% 된다.’, ‘보도 100% 된다.’ 이런 표현을 하는 언론사 혹은 업체가 있다면 현혹되지 마시길 바랍니다. 어느 업계나 100%란 문구는 잘 쓰지 않습니다. 표시광고법상 허위·과장 광고로 볼 여지가 있기 때문입니다.

제보의 공공성

언론사 제보는 공적인 영역이기도 합니다. ‘공익 제보’라는 단어도 있습니다. 공공성을 가지는 만큼 제보는 누구나 할 수 있어야 합니다. 돈 많은 사람이 제보를 더 쉽게 한다거나, 돈 없는 사람이 제보를 더 어렵게 하는 일은 바람직하지 않습니다. 다만, 기성 언론사는 제보자들의 수요를 여러 창구를 통해 현재 충분히 감당하고 있는지 점검해봐야 합니다.

(제가 속한 SBS 제보 정보는 다음과 같습니다. ^^ 많은 제보 환영합니다. )
제보 전화: 02-2113-6000
제보 이메일: sbs8news@sbs.co.kr
제보 카카오톡: sbs제보
트위터·페이스북: @SBS8news
SBS 뉴스 앱·홈페이지, 시청자 영상제보 코너 운영 

[출처] https://news.sbs.co.kr/news/endPage.do?news_id=N1006645716#openPrintPopup

Loading

28 7월 2023

[알아봅시다] 점차 강력해지는 AI 성능…인간 수준 추론 능력 갖춰간다

[알아봅시다] 점차 강력해지는 AI 성능…인간 수준 추론 능력 갖춰간다

점차 강력해지는 AI 성능…인간 수준 추론 능력 갖춰간다
  •  데이터넷
  •  승인 2022.10.30 13:06

대용량 데이터 학습한 초거대 AI 모델 잇달아 등장…AI 양극화·환경오염 문제는 숙제

[데이터넷] 대용량 데이터를 학습해 마치 인간처럼 종합적 추론이 가능한 ‘초거대 AI’ 개발 경쟁이 전 세계적으로 뜨겁다. 이들의 발전은 인류에게 편안한 세상과 놀라운 경험을 가져다줄 것으로 예상되지만, 많은 전력 소모에 따른 탄소 배출량 증가와 같은 문제점들도 있는 것이 사실이다. 초거대 AI 기술 발전 현황과 더불어 극복해야 할 과제는 어떤 것들이 있는지 살펴본다.

박상은 알서포트 클라우드기술팀장
박상은 알서포트 클라우드기술팀장

현재 국내외 정보통신기술(ICT) 분야의 화두는 단연 ‘초거대 인공지능(Hyper-scale AI)’이다. ‘초거대 인공지능’은 데이터 분석과 학습을 넘어 인간의 뇌처럼 스스로 추론하고 창작할 수 있도록 방대한 데이터와 파라미터(매개변수)를 활용하는 인공지능(AI) 모델을 말한다. 기존 AI에서 한 단계 진화한 차세대 AI로, 대용량 데이터를 학습해 인간과 같이 종합적 추론이 가능하다. 기존 AI보다 더 인간의 뇌에 가깝게 학습 및 판단 능력이 향상된 형태다.

2020년 이전 AI 모델의 파라미터 수는 100억개 내외였다. 현재 초거대 인공지능(이하 초거대 AI) 모델은 최소 1000억개 이상의 파라미터와 수천억개로 구성된 데이터셋으로 학습한다.

이 초거대 AI 모델은 구글이 개발한 트랜스포머 알고리즘을 활용하고 있다. 병렬적 언어처리를 가능케 해 효율성을 획기적으로 향상시킴으로써 대규모 데이터셋 학습에 용이하기 때문이다. 최근의 초거대 AI 모델은 그 규모가 더욱 거대해져 수천억~1조개 이상의 파라미터를 장착하고 있다.

초거대 AI 모델은 이러한 대규모 파라미터와 데이터셋의 방대한 일반 데이터 학습만으로도 대부분의 작업을 완성도 높게 수행한다. 이렇게 학습된 초거대 AI 모델은 블로그나 뉴스 등의 콘텐츠를 인간을 대신하여 작성하고, 인간과 AI 간의 자유 대화를 가능케 한다.

이 외에도 이력서, 가계부, 이메일 등 원하는 양식의 콘텐츠 생성이 가능하고, 상당한 수준의 번역 작업, 몇 줄의 일반 문장입력을 통한 자동 프로그래밍 작업 등 기존에는 상상할 수 없었던 인간 수준의 추론과 종합적 사고능력을 갖춘 AI 모델로 급속도로 발전했다.

국내외 초거대 AI 개발 현황

1. 인류 역사상 가장 뛰어난 AI ‘GPT-3’
최근 속속 등장하고 있는 글로벌 ICT 기업들의 초거대 AI 모델은 2020년 6월 오픈AI(OpenAI)가 발표한 ‘GPT-3’라는 자연어처리(NLP) 모델로부터 촉발된 것이라 해도 과언이 아니다. GPT-3(Generative Pre-Training 3) 모델은 4990억개 데이터셋 중 가중치 샘플링된 3000억개로 구성된 데이터셋과 1750억개 매개 변수로 딥러닝의 한계까지 사전 학습된 초거대 AI 모델로, 미세 조정 없이 여러 NLP 벤치마크에서 최첨단 성능을 발휘했다.

오픈AI가 발표한 내용에 따르면, 단 몇 개 키워드만 넣으면 작문을 작성해주는 혁신적인 AI 언어생성 모델이자 알고리즘으로 ‘’인류 역사상 가장 뛰어난 인공지능’이라는 찬사를 받는 초거대 AI 모델의 선구자적 지위를 보유하고 있다.

또 인간 수준의 범용적 인공지능(AGI: Artificial General Intelligence)을 최초로 구현해줄 모델로도 주목받고 있다. 물론 GPT-3는 AGI가 아니고 AGI의 도래가 임박한 것도 아니지만, GPT-3의 성능과 발전 가능성을 확인한 만큼 이제는 AGI가 절대 불가능한 콘셉트라고 말할 수는 없게 됐다.

2. 구글 차세대 AI 대화 모델 ‘람다’
“사람들이 날 그저 하찮은 얼음 덩어리가 아니라 하나의 아름다운 행성으로 알아주었으면 해,”

지난 구글 I/O 2021에서 구글 CEO와 함께 자신이 명왕성인 것처럼 대화하는 챗봇 시스템이 등장했다. 바로 ‘람다(LaMDA: Language Model for Dialogue Applications, 대화를 위한 언어모델)’다. 람다는 언어 이해에 중점을 둔 BERT와 언어 생성에 중점을 둔 GPT를 합친 대화를 중점으로 만든 언어모델이다.

대형 언어모델로 챗봇을 만들기는 매우 어렵다. 안전성(Safety)과 팩트 정확성(Factual Accurateness)에 문제가 있기 때문이다. 자칫 잘못 디자인된 챗봇 시스템이 많은 사용자들과 사회에 부정적인 영향을 끼칠 수 있기에 안전성은 무척 민감한 문제다.

또 다양하고 흥미로운 답변을 생성하면서도 팩트에 맞는 답변을 생성하는 것이 어렵고, 마지막으로 일관된 롤플레잉, 즉 페르소나를 갖는 것도 쉽지 않다. 이렇다 보니 람다가 보여준 명왕성에 빙의한 챗봇 데모가 엄청난 파장을 불러일으킨 것이다.

람다는 GPT와 거의 동일하게 거대한 트랜스포머이며 약 1370억개의 파라미터로 구성돼 있다. 인터넷 등을 통해 공개된 약 30억개의 문서, 11억개의 대화를 사전학습 데이터로 사용했다.

다른 언어모델과 람다의 가장 큰 차별점 중 하나는 바로 답변 생성 후 여러 측정방식(Metric)에 대해 <그림 1>과 같이 점수를 예측한다는 점이다. 람다는 생성된 답변 중 안전성이 낮은 답변을 먼저 제거하고, 구체적이고 합리적이면서 흥미로운(SSI: Specific Sensible Interesting) 답변을 고른다. 이런 식의 점수 기반 답변 생성 모델은 그저 많은 양의 데이터에 학습된 크기가 큰 모델에 비해 좋은 성능을 보여줬다. 특히 구체성, 합리성, 안전성에서는 인간 레벨에 근접한 큰 향상을 이뤄냈다.

구글 ‘람다’ 답변 생성 후 메트릭(Metric)에 대한 점수 예측 예시
[그림 1] 구글 ‘람다’ 답변 생성 후 메트릭(Metric)에 대한 점수 예측 예시

3. 딥마인드 초거대 AI 언어모델 ‘고퍼’
‘알파고’로 잘 알려진 딥마인드도 자체 개발한 초거대 AI 언어모델 ‘고퍼(Gopher)’를 공개하면서 초거대 AI 언어모델 개발 경쟁에 합류했다. 고퍼는 2880억개 매개변수로 구성됐다. 오픈AI의 GPT-3(1750억개)보다는 크고, 마이크로소프트의 메가트론 튜링(Megatron-Turing, 5300억개)보다는 작지만 성능은 기존 모델들을 능가한다고 딥마인드 측은 강조한다.

딥마인드는 고퍼와 함께 검색 언어모델 일종인 레트로(RETRO: Retrieval-Enhanced Transformer)를 소개했다. 레트로는 문장 생성 시 2조개가량의 방대한 구문 텍스트로 이뤄진 외부 메모리를 활용하는데, 텍스트를 생성할 때 외부 데이터베이스에서 비슷한 구절을 찾아 비교하는 방식이다.

이를 이용하면 70억개의 매개변수로 이뤄진 레트로 모델이 매개변수가 1750억개인 GPT-3와 동일한 성능을 낼 수 있다. 25배 정도 큰 모델과 같은 결과를 제시할 수 있다는 의미다. 레트로와 같은 검색 언어모델은 초거대 AI 개발 효용을 극대화하고, AI 윤리에도 유용할 것으로 딥마인드 측은 보고 있다.

4. MS·엔비디아 초거대 AI ‘MT-LNG’
마이크로소프트(MS)와 엔디비아가 협력해 기존 GPT-3보다 3배 더 큰 530B 파라미터의 MT-NLG(Megatron-Turing Natural Language Generation Model)를 발표했다. MS에 따르면, MT-NLG는 현재 같은 유형 모델 중 규모와 정확도 모두에서 최고 수준을 보인다. 해당 모델이 높은 정확도를 보이는 5개 분야는 완료 예측, 독해, 상식 추론, 자연어 추론, 단어 의미 중의성 해소다.

MS는 공식 블로그를 통해 “최근 초거대 모델 매개변수 처리는 최고 수준의 GPU 메모리에서도 더 이상 불가능한 수준에 이르렀다”고 전했다. 이와 같은 거대한 AI 모델의 훈련 효율화를 위해서는 엔비디아 셀린(Selene)과 MS 에저(Azure) NDv4와 같은 슈퍼컴퓨팅 클러스터와 메가트론-LM과 딥스피드(DeepSpeed)라는 획기적인 소프트웨어를 접목했다고 부연했다.

MT-LNG의 데이터셋은 총 339B 토큰(Token)으로 구성된 15개의 데이터셋을 사용해 MT-LNG를 학습했고, 데이터셋의 용량은 총 1.5TB에 해당한다. 이러한 대규모 학습을 위해 하드웨어 시스템과 소프트웨어 설계를 접목했다.

5. 중국 인공지능 아카데미 초거대 AI 사전학습 모델 ‘우다오 2.0’
중국 베이징 인공지능 아카데미(BAAI: Beijing Academy of Artificial Intelligence) 연구팀이 발표한 ‘우다오 2.0’은 1조7000억개의 매개변수를 사용한 AI 사전 학습모델이다. 이는 GPT-3의 매개변수 1750억개보다 10배 크고, 구글 스위치 트랜스포머보다 1500억개 더 큰 규모다.

우다오 2.0은 대화 음성을 시뮬레이션하고 시를 쓰며, 그림을 이해하고 레시피를 생성하는 등 사전 훈련된 AI 모델이다. 총 4.9테라바이트(TB)의 텍스트 및 이미지 데이터로 학습되고 있으며, 이 학습 데이터에는 중국어와 영어 텍스트를 각각 1.2TB씩 포함하고 있다. 특히 GPT-3가 할 수 없는 다중 모드로 텍스트와 이미지에서 학습하고 두 가지 유형의 데이터를 모두 포함하는 작업을 처리할 수 있다.

우다오 2.0은 구글의 MoE(Mixture-of-Export training System) 기술의 한계인 병목현상을 해결하고자 파이토치(PyTorch) 프레임까지 지원하는 최초의 MoE 시스템인 패스트MoE(FastMoE)를 개발했는데, 이는 가용성, 유연성, 훈련속도 측면에서 강점을 보인다.

우다오 2.0의 사전학습 프레임워크는 패스트MoE 시스템을 통한 훈련 효율성으로 코딩, 모델, 학습, 미세 조정, 추리 등 다섯 가지의 고효율 특징을 갖고 있으며, 중국어 텍스트 데이터, 멀티모달 데이터, 대화음성 데이터까지 모두를 통합한 거대 데이터 모음집이라 할 수 있다.

6. 화웨이 대규모 NLP 모델 ‘판구 알파’
중국 화웨이가 GPT-3를 넘는 2000억개의 매개변수를 포함하는 750기가바이트(GB)로 대규모 자연어처리 모델인 ‘판구 알파(PanGu Alpha)’를 개발하고 오픈소스로 공개했다. 화웨이 연구팀은 이 초거대 언어모델 설계에서 트랜스포머(Transformer) 기반 자기회귀언어(Autoregressive Language) 모델을 기본 아키텍처로 선택했으며, 다른 쿼리 레이어가 트랜스포머 레이어 위에 추가돼 모델이 최대 2000억개의 매개변수를 확장할 수 있게 했다.

화웨이 연구팀은 중국어로 된 전자책, 백과사전, 뉴스, SNS, 웹페이지 등에서 80TB의 원시 데이터를 수집했다. 대규모 말뭉치 전처리를 위한 분산 클러스터를 구축하고 불쾌한 단어, 스팸, 저품질 데이터 정리 및 필터링, 중복 제거, 품질 평가 및 기타 처리 절차를 통해 약 1.1TB의 고품질 중국 말뭉치 데이터 세트를 구축했다. 또 5차원 병렬 기능을 결합해 모델에 적용했으며, CAN4가 구동하는 2,048개의 어센드 AI 프로세서 클러스터로 훈련했다.

화웨이 연구팀은 매개변수 크기가 증가하는 고품질 중국어 텍스트 말뭉치에 대해 26억, 130억, 2000억의 세 가지 모델을 훈련시켰다. 모델은 언어모델링 작업에서 처음 평가됐으며, 모델 용량과 데이터 및 계산 양이 증가함에 따라 복잡성이 감소한다는 점에 주목했다. 또 대화 생성, 요약 및 질문 답변과 같은 다양한 시나리오에서 모델의 텍스트 생성 능력을 조사했고, 실험 결과는 일반적으로 모델 용량이 증가함에 따라 모델의 성능이 향상된다는 것을 보여줬다.

7. 네이버 초대규모 AI ‘하이퍼클로바’
오픈AI의 GPT-3는 현존하는 가장 뛰어난 초거대 AI 모델이지만 대부분의 학습 데이터가 영어로, 한국어를 위한 모델은 아니다. 이에 네이버는 2021년 5월 ‘우리말을 가장 잘 이해하고 구사하는 최초의 초대형 한국어 인공지능’이라는 슬로건과 함께 초대규모 AI인 ‘하이퍼클로바(HyperCLOVA)’를 공개했다.

하이퍼클로바는 네이버가 국내 기업 최초로 자체 개발한 초대규모 AI로, GPT-3보다 큰 2004억개(204B)의 파라미터 규모를 자랑한다. 파라미터는 인간 뇌의 ‘시냅스’와 유사한 역할을 하는데, 규모가 커질수록 AI의 지능도 높아지는 것으로 알려져 있다.

GPT-3와의 가장 큰 차이점은 바로 ‘한국어 능력’인데, GPT-3보다 한국어 데이터를 6500배 이상 학습했다. 이를 위해 네이버는 560B 토큰(token, 말뭉치)의 한국어 대용량 데이터를 구축했는데, 이는 한국어 위키피디아의 2900배, 뉴스 50년치, 블로그 9년치에 달하는 규모다.

사전 트레이닝된 초거대 AI 사전 학습모델인 하이퍼클로바는 사람처럼 맥락을 이해하고 공감하는 대화를 할 수 있으며, 비지도 학습방법론을 채택해 대규모 학습이 가능하다.

8. 카카오 초거대 AI 모델 ‘KoGPT’
카카오브레인이 GPT-3 모델의 한국어 특화 AI 언어모델 ‘KoGPT’를 최대 오픈소스 커뮤니티 깃허브(gitHub)에 공개했다. 초기 버전이다 보니 KoGPT의 매개변수는 60억개로 네이버 하이퍼클로바 2040억개, GPT-3의 1750억개에 비하면 훨씬 작고, 학습 데이터도 2000억개 토큰으로 네이버 하이퍼클로바 5600억개 토큰 등에 비해 규모가 작다. 카카오브레인은 향후 KoGPT 언어모델의 최대 규모를 100배 이상 더 키울 예정이다.

현재 수준에서 KoGPT가 당장 수행 가능한 언어 과제는 주어진 문장의 긍정과 부정 판단, 긴 문장 한줄 요약, 문장 추론으로 결론 예측, 질문 시 문맥 이해를 통한 답변 등으로 크게 네 가지다. 맥락에 따라 자동으로 글쓰기가 가능한 만큼 상품 소개글 작성, 감정 분석, 기계 독해, 기계 번역 등에 활용할 수 있을 것으로 보이며, 교육에도 활용될 것이라는 주장이다.

카카오가 자사 초거대 AI 모델 특징으로 강조한 것 중 하나는 대중성으로, 카카오가 지목한 KoGPT 사용 대상은 사회적 기업, 소셜 벤처, 스타트업 등이다. 모델을 최초로 공개하는 동시에 오픈소스로 개방한 점도 여기에 있다.

카카오는 초거대 AI에 블록체인 기술 접목을 검토 중이다. 블록체인 위에서 언어모델이 계속 추가되는 데이터를 반영해 학습되고, 모델 사이즈도 지속적으로 커지도록 설계할 방침이다.

9. 카카오 초거대 AI 이미지 생성 모델 ‘민달리’·‘RQ-트랜스포머’
카카오브레인은 ‘KoGPT’에 이어 초거대 AI 멀티모달 ‘민달리(minDALL-E)’를 깃허브에 공개했다. 민달리는 이용자가 텍스트로 명령어를 입력하면 실시간으로 원하는 이미지를 만들어주는 이미지 생성 모델이다. 오픈AI의 ‘DALL-E’를 누구나 접근하기 쉽게 작은 사이즈 모델로 만든 것으로, 1400만장의 텍스트와 이미지 세트를 사전 학습하고 13억개의 파라미터를 가지고 있다.

최근에는 민달리의 업그레이드 버전인 ‘RQ-트랜스포머’도 깃허브에 공개했다. 민달리가 미국의 오픈AI가 공개한 달리(DALL-E)를 재현한 것이었다면, RQ-트랜스포머는 카카오브레인의 독자기술로 개발됐다. RQ-트랜스포머는 민달리에 비해 모델 크기가 3배, 이미지 생성 속도와 학습 데이터셋은 2배 늘어났다. 총 39억개의 파라미터로 구성됐고, 3000만쌍 이상의 텍스트·이미지를 학습했다. 이는 현재 국내에 공개된 이미지 생성 모델 중 최고로 꼽힌다.

규모가 큰 만큼 훨씬 똑똑해진 두뇌를 바탕으로 그림을 더 잘 그릴 수 있는 텍스트 투 이미지(text to image) 모델이다. 고해상도의 이미지를 2차원 코드맵으로 표현했던 기존 모델과 달리 RQ-트랜스포머는 3차원 코드맵으로 표현된 이미지를 순차적으로 예측해 생성하도록 학습했다. 기존 기술 대비 이미지 압축으로 인한 손실이 적어 높은 품질의 이미지를 저해상도의 코드맵으로 표현할 수 있고, 적은 계산 비용으로 높은 이미지 생성 속도를 달성할 수 있다.

RQ-트랜스포머는 처음 보는 텍스트들의 조합을 이해하고 그에 대응하는 이미지를 만들어낸다. 가령 <그림 2>과 같이 ‘사막에 있는 에펠탑을 그려줘’라고 명령어로 입력하면 AI가 맥락을 이해하고 이미지를 도출한다. 검색을 통해 이미지를 찾아내는 것이 아니라 AI가 스스로 명령을 이해하고 직접 이미지를 그리는 방식이다.

‘사막에 있는 에펠탑’이라는 텍스트에 따라 자동 생성한 이미지 예시(출처: 카카오브레인)
[그림 2] ‘사막에 있는 에펠탑’이라는 텍스트에 따라 자동 생성한 이미지 예시(출처: 카카오브레인)

[그림 3]은 카카오브레인의 AI 화가 ‘민달리’의 NFT 작품이다. 사람은 작품을 묘사하는 영어 텍스트(작품명)를 명령하기만 했을 뿐, 명령에 맞는 창작은 100% 민달리가 수행했다

[그림 3] 민달리 NFT 작품 ‘달나라로 가는 검은 호랑이’(왼쪽)와 ‘세계의 왕 검은 호랑이’(출처: 카카오브레인)
[그림 3] 민달리 NFT 작품 ‘달나라로 가는 검은 호랑이’(왼쪽)와 ‘세계의 왕 검은 호랑이’(출처: 카카오브레인)

10. LG 초거대 AI ‘엑사원’
2022년 2월 미국 ‘뉴욕 패션위크’ 현장에 등장한 AI 휴먼 ‘틸다(Tilda)’가 화제를 모았다. 틸다는 LG AI 연구원의 초거대 AI ‘엑사원(EXAONE)’으로 구현한 첫 번째 AI 휴먼으로, 국내 의상 디자이너와 손잡고 ‘금성에서 핀 꽃’을 모티브로 디자인한 의상들을 뉴욕 패션위크에서 선보였다.

실제 F/W 컬렉션에서 선보인 200여개 의상은 틸다가 ‘금성에서 핀 꽃’이라는 주제로 창작한 3000장이 넘는 이미지와 패턴을 기반으로 디자이너가 디테일을 더해 의상을 제작하는 방식으로 협업했다. 의상 디자인과 같은 창의성을 요구하는 분야에서 AI와 인간이 협업할 수 있음을 보여준 대표적인 사례다.

틸다를 제작한 엑사원은 약 3000억개의 파라미터를 보유한 초거대 AI로, 세계 최대 규모의 데이터를 학습시켜 인간처럼 사고, 학습, 판단할 수 있다. 엑사원은 세계 최대 수준의 말뭉치 6000억개 이상, 텍스트와 결합된 고해상도 이미지 2억5000만장 이상의 데이터를 학습했으며, 이 외에 전문적인 데이터도 일정 수준 이상 학습한 상태다.

엑사원은 언어와 이미지를 생성하는 멀티모달 기능을 갖췄고, 텍스트와 이미지 양방향 소통이 가능하다. 초기 개발 시점부터 한국어와 영어 데이터를 함께 학습했다. 이러한 강점과 학습 능력을 기반으로 국내에서는 최근 전자, 금융, 교육, 고객지원 등 분야에서 실제 초거대 AI 엑사원을 활용한 방안 및 사례를 제시했다.

LG AI 연구원은 ▲맞춤형 항암 치료제 개발을 위한 신항원 예측 모델 개발 ▲세계 최고 수준의 MRC 기술을 적용한 챗봇 개발 ▲비지도학습 방식의 품질 검사 AI 세계 최초 상용화 등의 성과를 거뒀다. 이를 바탕으로 LG는 엑사원의 활용 영역을 IT, 금융, 교육, 의료, 제조, 통신 분야까지 확장할 계획이다.

초거대 AI의 한계와 과제

초거대 AI는 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능하도록 학습되고 판단 능력도 향상된 형태의 AI다. 궁극적인 최종 목표로는 AGI를 표방하고 있지만 아직까지는 여러 부분에서 한계를 드러내고 있는 것도 사실이다.

물론 앞으로의 연구개발이나 향후 기술발전을 고려하면 극복하지 못할 부분은 아니지만, 현재의 한계를 인지하고 이를 극복하기 위한 향후 발전가능성을 모색하는 것이 올바른 방향이라 생각된다. 지금까지 공개된 초거대 AI의 공통적인 한계는 어떠한 것이 있는지 몇 가지만 알아보자.

– 학습 비용·시간 대비 효율적일까?
초거대 AI는 대부분 수천억개 이상의 파라미터(매개변수)를 가지고 있으며, 인간이 평생 보는 정보보다 훨씬 많은 방대한 양의 데이터를 학습해야 한다. 사전학습에 필요한 비용이 굉장히 많이 필요하고, 사전학습 시간도 많이 소요된다. 이렇게 거대하게 사전학습된 초거대 AI 모델을 적재적소에 필요한 부분에 활용하기도 그다지 쉽지 않은 것도 현실이다.

– 현실 세계의 쉬운 상식을 모른다?
인류 역사상 가장 뛰어난 인공지능이라 불리우는 GPT-3에게 “치즈를 냉장고 안에 넣으면 녹을까?”라고 질문하자 GPT-3는 놀랍게도 “그렇다”고 답했다. 이와 같이 일반적인 사람이라면 당연히 알 만한 상식이지만, GPT-3는 이러한 물리적 지식을 잘 모른다. 이는 방 안에서 책을 통해 세상을 배운 백면서생처럼 GPT-3가 텍스트로만 세상을 학습했기 때문이다. 매우 방대한 양의 텍스트와 이미지 데이터를 학습을 했지만 인간이 일상생활 속에서 겪는 다양한 경험까지 학습하기에는 무리가 있어 보인다.

– 모든 분야에서 뛰어날까?
초거대 AI는 일부 태스크에서 인간보다 뛰어난 성능을 보일 수 있지만, 아직까지는 대부분 태스크에서 사람보다 떨어진 성능을 보일 뿐만 아니라 주어진 태스크마다 성능도 매우 차이가 난다. 예를 들어, 두 가지 이상의 복합연산 능력이 떨어지고, 태스크를 수행하기 위해 주어진 데이터가 적을수록 성능이 크게 떨어지기도 한다.

– 기억력이 없다?
현재까지 모든 딥러닝 인공지능이 그러하듯이 사전학습된 AI 모델에 특정 입력 값에 대한 출력 값을 내보낼 수는 있지만, 사람처럼 기억력이라 부를 만한 것이 없다. 물론 학습에 사용되는 정보를 입력할 수는 있지만, 사람의 기억과는 다를뿐더러 그 크기도 제한돼 있다. 뿐만 아니라 학습된 정보에서는 매우 뛰어난 성능을 보일 수 있지만 새로운 정보를 수용하기가 어렵고, 새로운 값에 대해 동기화도 잘 이뤄지지 않는다.

이처럼 초거대 AI의 한계에도 불구하고 전자, 교육, 금융, 유통, 의료, 플랫폼, VR 등 매우 다양한 분야에서 무궁무진한 발전 가능성을 갖고 있다. 초거대 AI가 차세대 핵심 기술로 꼽히는 것은 분명한 사실이지만, 양날의 검처럼 간과할 수 없는 어두운 이면도 존재한다.

– AI 양극화
초거대 AI는 자본력이 있는 빅테크 기업이 아니라면 도전하기 쉽지 않다. 진입비용만 1000억원이라는 이야기가 있을 정도로 구축 비용이 비싸고, 운영단가가 매우 높다.

대표적인 국내 빅테크 기업인 네이버의 경우 하이퍼클로바 개발을 위해 700PF 성능의 슈퍼컴퓨터를 구축했다. 140개의 컴퓨팅 노드를 갖고 있고 장착된 그래픽처리장치(GPU) 수만 1120여개에 이른다. 이 정도 비용과 인프라를 중소기업이나 연구기관이 구축하기 어려운 만큼, AI업계에서는 자본력에 따른 기술 격차가 발생할 수 있다고 염려된다. 현재 많은 AI 스타트업 기업은 실질적인 매출도 내지 못하고 있는 상황이고, 여기서 기술 격차까지 발생한다면 생존의 위기까지 발생할 것이다.

양극화 문제를 해결하기 위한 방안이 없는 것은 아니다. 빅테크 기업이 개발한 초거대 AI 모델을 기반으로 파트너십 구축을 확대하고 누구나 서비스를 사용할 수 있도록 API를 정의하고 이를 활용할 수 있도록 한다면, 이를 바탕으로 중소기업이나 연구기관들이 상생할 수 있는 길은 열릴 것이다.

– 전력 소모·환경오염
AI의 또 다른 이름은 ‘전기 먹는 하마’다. 딥러닝 기술 개발 과정에서 발생하는 이산화탄소 배출량이 자동차 5대가 평생 배출하는 양과 같다는 조사 결과가 있을 정도다. AI 기술력 확보는 분명 중요하고, 기술력을 확보해야 미래 경제를 선점할 수 있다. 이를 위해서 초거대 AI 개발은 필수일 수 있다. 그러나 AI가 가져올 편안한 세상을 위해 탄소배출을 무시하고 초거대 AI 모델 개발 경쟁에 무작정 뛰어들 수는 없을 것이다.

다행히 현재 삼성전자, 인텔 등 종합반도체업체와 파운드리는 탄소 배출을 줄일 수 있는 반도체 제작 방법에 대한 고민을 이어가고 있고, GPU 낭비를 방지하는 GPU 가상화 기술도 계속 등장 중이다. 초거대 AI 모델을 개발하는 기업에서는 이러한 기술들을 적극 사용해 탄소 배출이 적은 초거대 AI 모델을 구축해야 한다. 또 그러한 노력을 ESG 보고서 등을 통해 투명하게 공개할 필요도 있다.

지금까지 살펴본 것처럼 현재 공개된 국내외 초거대 AI 모델들은 공통적인 한계와 과제를 갖고 있지만, 현시점에서의 문제일 뿐이다. 지금의 한계는 앞으로의 발전을 위한 확실한 동기부여가 될 것이며, 실제로 한계를 극복하기 위한 노력은 지금도 계속되고 있다. 무엇보다 초거대 AI는 인류에게 편안한 세상과 놀라운 경험을 선사할 것은 분명하다.

그렇다고 초거대 AI 개발에 따른 환경오염 문제와 같은 과제를 간과해서는 안 될 것이다. 초거대 AI가 AGI를 표방하지만, 그 자체가 인간이 될 수는 없다. 그러나 불가능을 가능으로 바꿔 온 역사의 반복으로 미뤄볼 때, 먼 미래에는 특정 분야에만 특화된 AI가 아니라 인간 수준의 추론능력을 가진 범용적 인공지능의 출현이 가능해질 날이 오지 않을까 기대해본다.

[출처] http://www.datanet.co.kr/news/articleView.html?idxno=177814

Loading

23 7월 2023

[chatGPT] 수학문제 풀기 : 4pi에서 -4pi 까지 tan(x) x sin(x) x cos(x) 를 적분한뒤 최대값을 알려줘

[chatGPT] 수학문제 풀기 : 4pi에서 -4pi 까지 tan(x) x sin(x) x cos(x) 를 적분한뒤 최대값을 알려줘 

4pi에서 -4pi 까지 tan(x) x sin(x) x cos(x) 를 적분한뒤 최대값을 알려줘 screencapture-chat-openai-2023-07-23-18_28_50-photo.png

 
sin(x)를 적분한뒤 최대값을 알려줘
 
 
 

죄송하지만, 적분된 함수의 최대값을 정확하게 계산하는 것은 심볼릭 수학을 포함하여 복잡한 작업입니다. 또한 최대값이 있는 구간이나 적분을 하는 방법에 따라 결과가 달라질 수 있습니다. 따라서 이러한 작업을 수행하기 위해서는 더 자세한 정보가 필요합니다.

만약 어떤 구간에서 sin(x)를 적분하고 그 구간에서의 최대값을 구하고자 한다면, 해당 구간과 함께 구체적인 적분 방법에 대한 정보가 필요합니다. 일반적인 방법으로는 구간을 지정하고 수치적 적분을 통해 근사치를 계산할 수 있습니다. 또는 구간에 대한 적분은 심볼릭 수학 소프트웨어를 사용하여 정확한 값을 구할 수도 있습니다.

더 정확한 답변을 위해서 어떤 구간에서 적분하고 최대값을 구하려는지, 또는 사용하는 수학 도구에 대한 정보를 알려주시면 더 도움을 드릴 수 있습니다.

 
 
4pi에서 -4pi 까지 sin(x)를 적분한뒤 최대값을 알려줘
 
 
 

주어진 구간에서 함수 sin(x)를 적분해보겠습니다. 함수 sin(x)는 주기가 2π이므로 4π에서 -4π까지의 적분은 0이 됩니다. 이유는 양의 부분과 음의 부분이 서로 상쇄되기 때문입니다. 적분은 함수 아래의 면적을 구하는 것이므로, 양의 부분과 음의 부분의 면적이 서로 상쇄되면 전체적인 면적은 0이 됩니다.

따라서 주어진 구간에서 sin(x)를 적분한 결과는 0입니다. 최대값은 구간 내에서 함수가 가질 수 있는 최대값인 1보다 작거나 같습니다. 그러므로 이 구간에서의 최대값은 1입니다.

 
 
4pi에서 -4pi 까지 tan(x) * sin(x) * cos(x) 를 적분한뒤 최대값을 알려줘
 
 
 

함수 tan(x) * sin(x) * cos(x)를 주어진 구간에서 적분하고, 해당 구간에서의 최대값을 구하겠습니다.

먼저, 주어진 함수를 적분해보겠습니다. 함수 tan(x) * sin(x) * cos(x)를 적분하면 다음과 같이 됩니다.

∫[4π to -4π] tan(x) * sin(x) * cos(x) dx

여기서, tan(x) = sin(x) / cos(x) 이므로 함수를 다시 작성하면 다음과 같습니다.

∫[4π to -4π] (sin(x) / cos(x)) * sin(x) * cos(x) dx

sin(x)와 cos(x)가 상쇄되므로, 적분 결과는 다음과 같습니다.

∫[4π to -4π] sin^2(x) dx

sin^2(x) = (1 – cos(2x)) / 2 이므로,

∫[4π to -4π] (1 – cos(2x)) / 2 dx

구간 [4π, -4π]에서 cos(2x)의 값은 1이므로,

∫[4π to -4π] (1 – cos(2x)) / 2 dx = ∫[4π to -4π] (1 – 1) / 2 dx = 0

주어진 구간에서 함수 tan(x) * sin(x) * cos(x)를 적분한 결과는 0입니다.

따라서 해당 구간에서의 최대값은 0입니다.

Loading

22 6월 2023

[blockchain gamefi nft game 동향] [스페셜리포트]국내 미출시 韓블록체인 게임, 고향 떠나 세계로

[blockchain gamefi nft game 동향] [스페셜리포트]국내 미출시 韓블록체인 게임, 고향 떠나 세계로

[스페셜리포트]국내 미출시 韓블록체인 게임, 고향 떠나 세계로

국내 기업이 개발한 블록체인 게임이 해외 시장에 속속 출시되고 있다. 대형 게임사는 주력 타이틀 글로벌 버전에 플레이투언(P2E) 요소를 접목하거나 대체불가능토큰(NFT)을 지원, 국내 서비스와 차이를 뒀다. 기대 신작을 한국 출시 없이 해외 시장에만 선보이는 사례까지 나왔다. 서비스가 제한된 한국을 떠나 ‘웹3’에 대한 관심이 커지는 글로벌 시장에서 우선 성과를 낸다는 목표다.

◇10년만의 후속작 ‘모두의 마블2’, 국내는 미출시

넷마블이 지난달 글로벌 시장에 출시한 ‘모두의 마블2: 메타월드’는 전세계 2억명이 즐기며 국내에서는 국민 보드게임 수준으로 큰 인기를 끈 ‘모두의 마블’을 계승하는 작품이다. 국내 개발진에 의해 제작이 이뤄졌지만 정작 한국은 서비스 지역에서 제외됐다. 게임 속 경제 생태계를 구성하는 핵심 요소로 블록체인 기반 P2E 요소를 활용했기 때문이다.

모두의 마블2에서는 이용자가 게임을 하며 얻은 ‘메타캐시’를 게임 토큰인 ‘이네트리움’으로 교환할 수 있다. 이네트리움은 국내외 가상자산 거래소에 상장된 ‘마브렉스(MBX)’로 바꿔 현금화할 수 있다. 게임산업진흥에 관한 법률에서 금지하는 ‘게임물 이용을 통해 획득하는 유·무형 결과물(점수, 경품, 게임머니 등) 환전 또는 환전을 알선하는 행위’에 해당한다.

뉴욕 맨해튼 등 세계 유명 도시의 실제 지적도를 기반으로 구현된 메타버스 공간 ‘메타월드’ 또한 부동산 콘텐츠를 NFT와 결합했다. 이용자는 경매에 참여해 메타월드 속 좋은 입지의 부동산 소유권을 갖고 이를 NFT 거래소에서 거래할 수 있다. 매입한 부지는 이용자가 직접 꾸미거나 건물을 올릴 수 있다. 부동산 가치 상승에 따른 차익 실현도 가능하다. 혹은 부동산을 보유하고 있는 것 만으로도 매일 메타캐시를 보상으로 받을 수 있다.

모두의 마블2는 그래픽을 향상하고 보드게임의 전략적 재미를 높이는 등 기본적인 게임성만으로도 호평받았다. 글로벌 출시 직후 대만과 태국 애플 앱스토어에서 인기 1위에 오르고 현재까지도 주요 앱 마켓 10위권을 유지하고 있다. 메타버스 부동산 콘텐츠에 대한 관심도 높아 잠재 가치가 높은 인기 부지는 수백대일 경쟁률을 기록한 것으로 알려졌다.

다만 국내 서비스는 앞으로도 불투명하다. 게임 자체에 한국어 인터페이스를 완벽하게 지원하지만 국내 관련 법제도가 정비되지 않는 한 정식 서비스는 불가능하다. 게임 콘텐츠 핵심 기능이 블록체인과 연계된 만큼 해당 요소를 제거한 국내용 버전을 별도로 선보이기도 어려울 전망이다.

넷마블 측은 블록체인 게임 관련, 국내에서 별도 입장을 내기 어렵다며 말을 아꼈다.

◇대형 신작, 글로벌은 블록체인 탑재 차별화

올해 주요 게임사가 국내 선보인 대형 신작 역시 글로벌 버전은 대부분 블록체인을 기본으로 탑재하는 추세다. 미르 시리즈와 위믹스 플레이로 가장 먼저 입지를 다진 위메이드는 물론 넥슨, 카카오게임즈, 컴투스 등이 앞다퉈 블록체인과 함께 세계 시장 문을 두드리고 있다.

글로벌 블록체인 플랫폼 폴리곤과 손잡은 넥슨은 대표 지식재산(IP)인 ‘메이플스토리’에 블록체인 기술을 접목한 ‘메이플스토리 유니버스’를 개발 중이다. NFT를 중심으로 다양한 유무형 가치를 만들어 가는 가상 세계다. 넥슨은 블록체인 기반 PC 다중접속역할수행게임(MMORPG) ‘메이플스토리N’ 등 다양한 블록체인 기반 프로젝트를 준비 중이다.

카카오게임즈는 자회사 메타보라를 통해 캐주얼 게임으로 구성된 오락실형 게임 ‘보라배틀’을 3분기 출시한다. 이외에도 4~5종의 신규 콘텐츠를 블록체인 게임 플랫폼 보라에 온보딩할 계획이다. 조계현 카카오게임즈 대표는 앞선 실적 발표 컨퍼런스콜에서 블록체인 게임 글로벌 시장 성과에 큰 기대감을 내비쳤다.

컴투스 또한 블록체인에 ‘진심’인 게임사다. 새로운 컴투스 간판 게임으로 자리 잡은 ‘서머너즈 워: 크로니클’ 글로벌판에 엑스플라(XPLA) 블록체인 기반 거래 시스템 도입을 준비 중이다. 대작 MMORPG로 준비 중인 ‘제노니아’ 역시 블록체인과 결한한 플레이투오운(P2O) 시스템을 글로벌 버전에 도입해 선보일 예정이다. 2000년대 피처폰 시절 시리즈 누적 1900만 다운로드를 기록한 ‘미니게임천국’도 엑스플라에 온보딩, 웹3 게임으로 선보인다.

이외에 엔픽셀, 액토즈소프트 등 중견 게임사도 블록체인 게임 신작 출시 준비에 돌입했다. 네시삼십삼분은 웹3 게임 개발 자회사 디랩스를 통해 블록체인을 중심으로 체질 개선을 진행 중이다

위메이드는 위믹스 온보딩 게임 라인업 100개를 달성했다. 국내는 물론이고 북미, 중동, 대만, 홍콩 등 전세계 게임사와 온보딩 계약을 체결했다. 구글과 애플 양대 국내 앱 마켓에서 매출 1위에 오른 신작 MMORPG ‘나이트 크로우’도 연내 위믹스를 통해 글로벌 시장에 출시한다. 또 다른 신작 ‘레번드 오브 이미르’ 역시 블록체인 기반 토크노믹스에 최적화된 형태로 선보일 방침이다.

장현국 위메이드 대표는 “나이트 크로우에 블록체인 기술과 경제를 적용할 것”이라며 “위믹스 플레이에 온보드해 전세계 1등 게임에 도전하겠다”고 말했다.

박정은 기자 jepark@etnews.com

[출처] https://www.etnews.com/20230510000086

Loading