1 6월 2014

弘益人間 (홍익인간)

사용자의 삶의 만족도를 높이고 불쾌함과 짜증을 감소시키는 견고하고 에러없는 소프트웨어 개발을 목표로 세월이 지나도 혁신적인 활동을 “에스 테크 스타 닷컴”은 이어갑니다.  좋은 소프트웨어 창출로 정보기술의 弘益人間 (홍익인간)을 구현합니다.

 


 

 

 

 

 

혼자가 아닌 나!


 

Loading

1 6월 2014

comphy’s profile

2014년
대한민국 공군 사이버전실습 및 대응체계 개발:평택공군제7전대
에스테크스타닷컴 에스천사게임즈 오픈
ebook 출판 예정

2013년
KT BIT OSS 프로젝트

2012년
삼성전자 가전사업부 표준화파트너 시스템 개발 (Java,JSP,Oracle)
행안부 종합장애대응체계 / 복지부 행복e음 유지보수

2011년
삼성전자 스마트그리드 서버 및 스마트TV 앱 검증 서버
삼성bada 2.0 검증 어플리케이션 개발 (MWC2011출품)

2010년
[LGU+] 패킷관련 프로젝트
[수원,구미] 삼성전자 MMP 프로젝트 (터치모바일플랫폼) : 피쳐폰의 스마트화

2009년
[천안] 삼성코닝 정밀유리 : S-Contour 프로젝트

2008년
삼성전자 소프트웨어연구소 QMO과제 수행

 

Loading

19 4월 2012

네 시작은 미약하였으나 네 나중은 심히 창대하리라.

네 시작은 미약하였으나 네 나중은 심히 창대하리라.

Your beginnings will seem humble, so prosperous will your future be….

나라장터 조달업체 등록 : 2014-07-04

한국SW산업협회 소프트웨어사업자등록 : B14-87964

출판업 신고 : 수지구청 제 123호

통신판매업 신고 : 제2012-용인수지-0185호

사업자 신고 : 용인 142-07-27414

sjkim_cc

 

 

Loading

13 5월 2999

Web Cloud & mobile App Business working Link

Web Cloud & mobile App Business working Link

  1. Biz Design Workplace
  2. Biz marketing tools Workplace
  3. Biz reference datas
    1. 프리렌서 업무 [크몽] : https://kmong.com/
    2. 모바일 앱 시장조사 [와이즈앱] : https://www.wiseapp.co.kr/
    3. 프리렌서 업무 [위시켓] : https://www.wishket.com
    4. 프리랜서 업무 [프리모아] : http://www.freemoa.net/
    5. 프리렌서 업무 [이렌서] : http://www.elancer.co.kr/
  4. Biz online Developing tool
  5. cloud developer console
    1. microsoft azure : https://azure.microsoft.com/ko-kr
    2. google developer console : https://console.cloud.google.com/?hl=ko
    3. amazon AWS : https://aws.amazon.com/ko/console/
  6. Mobile App Biz market
    1. android developer console : https://play.google.com/apps/publish/?hl=ko
    2. onestore (T Store) : http://dev.onestore.co.kr/devpoc/index.omp
    3. apple app store : https://developer.apple.com/app-store/
  7. 지적재산권 등록
    1. 특허정보검색(KIPRIS) : http://www.kipris.or.kr/khome/main.jsp
    2. 특허로(특허출원) : http://www.patent.go.kr/portal/Main.do

 

 

 

Loading

13 5월 2999

매일 들르는 곳 : nooksurfer : ホームページの閲覧えつらん者しゃ

매일 들르는 곳 : nooksurfer : ホームページの閲覧えつらん者しゃ

 

 

자주 들르는 곳 : Frequent stop :

 

모바일 (게임)개발툴 사이트

 

 

 웹 (사이트) 개발

 

 

디지털 마켓

 

 

멀티미디어 리소스 (마켓)

 

인문학과 사회와 재경학에 관심을 가져보자

 

오프라인 교육 기관

 

Loading

21 10월 2024

[알아봅시다] [강석기의 과학카페] 큰 무대에 서면 몸이 얼어붙는 이유

[알아봅시다] [강석기의 과학카페] 큰 무대에 서면 몸이 얼어붙는 이유

[강석기의 과학카페] 큰 무대에 서면 몸이 얼어붙는 이유

입력
한국 스포츠 역사에서 최고 스타인 김연아 선수는 올림픽 같은 큰 무대에서도 실수하지 않고 제 기량을 발휘해 2010년 벤쿠버 대회에서는 금메달, 2014년 소치 대회에서는 은메달(사실상 금메달)을 목에 걸었다. 소치

한국 스포츠 역사에서 최고 스타인 김연아 선수는 올림픽 같은 큰 무대에서도 실수하지 않고 제 기량을 발휘해 2010년 벤쿠버 대회에서는 금메달, 2014년 소치 대회에서는 은메달(사실상 금메달)을 목에 걸었다. 소치 동계올림픽의 프리스케이팅 장면이다. 연합뉴스 제공

필자가 젊었을 때까지만 해도 동계올림픽 피겨 스케이팅 경기가 나오면 ‘이게 예술이지 스포츠인가’라며 동작의 아름다움을 감상했다. 당시만 해도 선수 대다수는 유럽과 북미, 특히 동구권 국적이었다. 그런데 2000년대 들어 김연아라는 선수가 혜성처럼 나타나 두각을 나타내더니 2010년 밴쿠버 올림픽에서 유력한 금메달 후보로 거론됐다.

당시 동구권 선수들은 주춤했고 공교롭게도 동갑인 일본의 아사다 마오 선수와 수년째 라이벌 구도를 이어왔다. 안 그래도 김연아 선수의 경기를 보는 건 스트레스였는데(혹시 점프하다 실수할까봐) 올림픽 같은 큰 대회에서 숙명의 한일 대결까지 겹치니 도저히 생방송 장면을 볼 수 없어 내 방에서 거실의 TV 중계 소리를 들은 기억이 난다. 지금 생각하면 우리나라 선수나 한일전 같은 비본질적인데 몰입돼 스포츠 자체를 즐기지 못한 게 아닌가 싶다.

● 김연아와 아사다 마오의 차이

그런데 막상 선수들은 어땠을까. 4년 동안 벼르던 그날 수많은 관중 앞에서 홀로 빙판 위에 선 순간 압박감은 엄청날 것이다. 십중팔구 그 전날 밤에는 잠을 설치지 않았을까. 아무튼 김연아 선수는 실수하지 않고 기량을 100% 발휘해 금메달을 목에 걸었다. 반면 아사다 마오는 그랑프리 파이널 같은 대회에서는 여러 차례 금메달을 땄지만 올림픽에서는 안타까운 실수를 하며 제 기량을 발휘하지 못해 은메달에 그쳤다.

이를 두고 아사다 마오 선수를 ‘유리 멘탈’이라고 평가하기도 했지만 사실 김연아 선수가 ‘강심장’이라고 봐야 한다. 많은 선수가 큰 경기나 역전을 할 수 있는 결정적 순간에서 너무 긴장한 나머지 실력 발휘를 제대로 하지 못하기 때문이다.

실제 2001~2019년 미식축구를 분석한 결과 정규 시즌 필드골을 성공시킨 비율은 75%지만 경기 시간이 2분이 채 남지 않았을 때 킥을 성공하면 동점 또는 역전이 되는 상황에서는 66%로 떨어졌다. 오죽하면 ‘큰 경기에 명승부는 없다’는 말이 있을까.

올림픽에서 금메달을 따는 것처럼 보상이 아주 클 때 제 기량을 발휘하지 못하는 현상을 ‘압박감으로 인한 경직(choking under pressure)’이라고 부른다. 이 현상은 스포츠 경기뿐 아니라 일상의 여러 상황에서 벌어진다.

예를 들어 다음 달에 있을 수능결과(성적)가 좋으면 엄청난 보상(원하는 대학이나 학과)이 따른다. 이로 인해 많은 수험생이 압박감으로 인한 경직을 경험할 것이다. 왜 이런 현상이 나타나는 것일까.

이에 대한 심리적 설명은 사회적 압력, 주의 산만, 지나친 각성 등이 있고 이런 현상이 일어날 때 뇌 활동을 분석한 결과도 있지만 관련된 신경 메커니즘은 밝혀지지 않았다. 이를 위한 마땅한 동물 모델이 없기 때문이다. 그런데 압박감으로 인한 경직이 동물에서도 나타날까.

● 보상 아주 크면 성공률 떨어져

얼핏 생각하면 압박감으로 인한 경직은 사람에서만 볼 수 있는 현상처럼 느껴진다. 뭔가에 의미를 부여하고 그것을 성취하려는 노력 등은 꽤 인위적인 설정 아래에서 벌어지는 것처럼 보이기 때문이다. 그런데 2021년 학술지 ‘미국립과학원회보’에 원숭이도 압박감으로 인한 경직을 보인다는 흥미로운 논문이 실렸다.

스티븐 체이스 미국 카네기멜론대 바이오의공학과 교수팀은 ‘속도+정확도 작업’이라는 행동 실험을 고안했다. 원숭이는 커서에 손을 대고 있다가 표적이 나타나면 재빨리 손을 표적으로 이동해야 한다.

일정 시간 일정 범위 내에 손을 대야 성공하고 보상으로 달콤한 주스를 받는다. 이때 보상은 크기에 따라 네 가지로 나뉜다. 작은 보상은 주스 0.1㎖, 중간 보상은 0.2㎖, 큰 보상은 0.3㎖이고 저자들이 잭팟 보상이라고 부른 아주 큰 보상은 중간 보상의 10배인 2㎖나 된다. 참고로 각 보상은 표적의 색으로 구분할 수 있게 훈련했다.

원숭이를 대상으로 보상 크기를 달리해 ‘속도+정확도 작업’ 실험을 하면 큰 보상까지는 보상이 클수록 성공률이 높지만 잭팟 보상에서는 오히려 성공률이 떨어진다. 즉 동물에서도 압박감으로 인한 경직 현상이 나타난다. 원

원숭이를 대상으로 보상 크기를 달리해 ‘속도+정확도 작업’ 실험을 하면 큰 보상까지는 보상이 클수록 성공률이 높지만 잭팟 보상에서는 오히려 성공률이 떨어진다. 즉 동물에서도 압박감으로 인한 경직 현상이 나타난다. 원숭이는 커서(hand cursor)에 손을 대고 있다가 색으로 보상 크기(reward cue)를 알 수 있는 표적(target)이 나타나면 재빨리 손을 표적으로 이동해야 한다. 일정 시간 일정 범위 내에 손을 대야 성공하고 보상으로 달콤한 주스를 받는다. PNAS 제공

실험 결과 원숭이들은 큰 보상까지는 보상이 커질수록 작업 성공률이 높아졌다. 보상이 클수록 동기 부여도 커져 집중력이 높아진 결과로 해석된다. 그런데 표적에서 잭팟 보상 신호를 보면 오히려 성공률이 떨어졌다. 즉 보상 크기에 따른 성공률은 사람과 마찬가지로 ‘뒤집힌 U자(∩)’ 패턴을 보였다.

● 압박감으로 운동뉴런 활동 감소

동물도 압박감으로 인한 경직을 보인다는 논문이 나가고 3년이 흐른 지난 9월 학술지 ‘뉴런’에는 이런 현상이 생길 때 뉴런 활동의 변화를 분석한 같은 연구팀의 논문이 실렸다. 연구자들은 원숭이 뇌의 운동피질에 전극이 있는 칩을 꽂은 뒤 과제를 수행할 때 뉴런의 활성을 측정했다.

표적은 손이 놓인 커서에서 임의의 거리와 방향에서 나타나므로 그때마다 뉴런 활성 패턴이 달라진다. 이런 경향은 보상이 커질수록 뚜렷했는데 다만 큰 보상까지만 그랬다. 잭팟 보상이 주어졌을 때는 오히려 패턴의 차이가 줄어들었다. 즉 잭팍 보상에서는 표적의 위치를 나타내는 신호 정보가 약해졌고 그 결과 행동 속도가 느려지고 정확도도 떨어져 성공률이 낮아진 것이다.

한편 작은 보상과 잭팟 보상에서 실패율이 높지만 그 이유는 다르다. 즉 작은 보상에서는 동기 부여가 안 돼 집중력이 떨어진 결과이고 잭팟 보상에서는 압박감 때문이다.

흥미롭게도 이런 차이는 실패 패턴의 차이로도 드러난다. 즉 작은 보상에서는 이동한 손이 표적의 위치에 못 미쳐 멈추거나 지나쳐 멈춰 실패한 횟수가 비슷했다. 반면 잭팟 보상에서는 표적에 이르기 전에 멈춰 실패하는 횟수가 훨씬 많았다. 압박감으로 행동이 움츠러든 결과로 보인다.

● 경험 잦아지면 극복할 수 있지만…

이번 실험에서 네 가지 보상이 나타나는 빈도는 잭팟 보상이 5%이고 나머지 세 보상이 각각 31.6%로 같다. 즉 잭팟 보상은 20번에 1번꼴로 나오는 드문 기회다. 이렇게 배분한 이유는 2021년 실험 결과 때문이다. 잭팟 보상이 나오는 빈도를 나머지 세 보상과 같게 하면 성공률이 떨어지는 정도가 확 줄어든다. 압박감을 크게 느끼지 않는다는 말이다.

속도+정확도 작업은 일정 시간 내에 표적의 일정 범위 내에 손을 대야 성공하고(위) 못 미치거나(가운데) 지나치면(아래) 실패한다. 잭팟 보상이 주어지면 압박감으로 인한 경직으로 못 미쳐 실패하는 비율이 높아진다.

속도+정확도 작업은 일정 시간 내에 표적의 일정 범위 내에 손을 대야 성공하고(위) 못 미치거나(가운데) 지나치면(아래) 실패한다. 잭팟 보상이 주어지면 압박감으로 인한 경직으로 못 미쳐 실패하는 비율이 높아진다. 뉴런 제공

이는 주변에서 흔히 볼 수 있는 현상이다. 예를 들어 신인 아이돌 그룹이 처음 음악 방송에 출연하면 긴장한 나머지 제 실력을 발휘하지 못하는 경우가 많다. 그러다 보니 “라이브 실력이 별로”라는 식의 혹평을 듣기도 한다. 그러나 무대를 반복하면 긴장이 풀리면서 제 실력이 나온다. 즉 잭팟 보상 경험이 잦아지며 더 이상 잭팟 보상으로 느껴지지 않게 된 결과다.

물론 이들도 더 큰 무대에 서면 다시 잭팟 보상의 압박감으로 인한 경직 현상이 나타날 수 있다. 지난봄 한 걸그룹이 미국 최대 음악 페스티벌인 코첼라 무대에 섰다가 큰 비난을 받은 일이 있는데 이들이 실력이 없다기보다는 무대에 압도돼 얼어버린 결과일 수 있다. 2년 전 또 다른 걸그룹도 역시 코첼라 무대에서 비슷한 일을 겪었다.

블랙핑크는 데뷔 3년 차인 2019년 미국 최대 음악 페스티벌인 코첼라의 서브헤드라이너(두 번째로 큰 무대)에서 엄청난 퍼포먼스를 선보이며 일약 세계적인 걸그룹으로 올라섰다. 엄청난 잭팟 보상을 앞둔 압박감으로 인한

블랙핑크는 데뷔 3년 차인 2019년 미국 최대 음악 페스티벌인 코첼라의 서브헤드라이너(두 번째로 큰 무대)에서 엄청난 퍼포먼스를 선보이며 일약 세계적인 걸그룹으로 올라섰다. 엄청난 잭팟 보상을 앞둔 압박감으로 인한 경직을 극복한 대표적인 사례다. YG 제공

그런데 두 경우 모두 비교 대상이 있었으니 바로 블랙핑크다. 이들은 2019년과 2023년 두 차례 코첼라 무대에 올라 엄청난 퍼포먼스를 보여줬다. 특히 불과 데뷔 3년 차였던 2019년 무대의 인상적인 활약으로 일약 세계적인 걸그룹으로 떠올랐다.

이들의 대성공이 운인지 실력의 결과인지는 모르겠지만 하나 확실한 건 엄청난 잭팟 보상 상황에서 압박감으로 인한 경직을 극복했다는 점이다. 블랙핑크 멤버나 김연아 선수나 다들 강심장의 소유자라는 말이다.

※ 필자소개
강석기 과학칼럼니스트 (kangsukki@gmail.com). LG생활건강연구소에서 연구원으로 근무했으며, 2000년부터 2012년까지 동아사이언스에서 기자로 일했다. 2012년 9월부터 프리랜서 작가로 활동하고 있다. 직접 쓴 책으로 《강석기의 과학카페》(1~7권),《생명과학의 기원을 찾아서》가 있다. 번역서로는 《반물질》, 《가슴이야기》, 《프루프: 술의 과학》을 썼다.

Loading

19 10월 2024

[사회과학] [박진영의 사회심리학] 이 또한 지나갈 것…비극적 낙관주의

[사회과학] [박진영의 사회심리학] 이 또한 지나갈 것…비극적 낙관주의

[박진영의 사회심리학] 이 또한 지나갈 것…비극적 낙관주의

입력
고통이 존재해도 살아가야겠다는 태도를 유지하는 것을 비극적 낙관주의라고 한다. 게티이미지뱅크 제공

고통이 존재해도 살아가야겠다는 태도를 유지하는 것을 비극적 낙관주의라고 한다. 게티이미지뱅크 제공

살면서 누구나 하나씩은 생기기 마련인 지병과 벌써 10여년을 함께 지내고 있다. 꽤나 오랜 시간이 지나기도 했고 또 어차피 생로병사의 고통은 인간의 숙명이니까 크게 동요되는 일 없이 마음만큼은 무던하게 잘 지내고 있다.

약도 잘 챙겨먹고 있고 쓸데없이 “나는 약 같은 거 없이도 혼자 병을 이겨낼 수 있다!” 같은 객기는 잘 부리지 않는 편이다. 어차피 그런 믿음은 통하지 않는다는 걸 알고 있고 불필요한 고통은 최대한 줄이고 싶기 때문에 밥 먹고 매일 병 고치는 일만 생각하는 전문가들의 판단을 최대한 존중하고 있다. 생각해보면 그런분들이 세상에 있다는 것이 참 감사한 일이다. 없을 수도 있을텐데 있어서 얼마나 다행인가?

딱 한 번 약을 끊어본 적이 있는데 왜 약에만 의존하고 다른 민간요법 등은 시도해 보지 않냐는 엄마의 끈질긴 설득에 반쯤 체념해서 그래 그냥 어떻게 되는지 보자 하는 마음에 그랬던 것 같다. 물론 실패할 것을 알고 있었고 실제로도 실패해서 고통과 약 용량만 더 늘리는 엔딩이었다.

이 때 한 가지 흥미로웠던 것은 엄마가 나에게 “너는 왜 이렇게 부정적이냐”고 계속 나무랐던 점이다. 내가 나의 병을 인지하고 최대한 행복하게 유병장수하기 위해 첨단과학의 도움을 받고 있는데 부정적이라니 이해할 수 없었다. 하지만 엄마의 시선에서 볼 때는 병을 받아들이는 것 자체가 매우 부정적이라고 느껴졌던 모양이다.

하지만 있는 병을 없다고 생각하는 것이야말로 삶을 외면하고 또 나를 돌볼 책임으로부터 무책임하게 도망치는 것이 아닌가? 나는 나 자신을 할 수 있는 한 최선을 다 하는 꽤나 긍정적인 사람으로 보고 있었기 때문에 엄마의 해석이 이상하게 느껴졌다.

삶에 도움이 되는 긍정이란 나는 절대 생로병사의 고통 따위를 겪지 않을 거라는 현실 도피가 아니라 어떤 일이 닥치든 아주 작은 것이라도 내가 나를 보살피기 위해 할 수 있는 일이 하나 정도는 있을 것이라고 믿는 것일 거다.

그러다 얼마 전 이러한 태도를 일컬어 ‘비극적 낙관주의(Tragic Optimism)’라고 한다는 사실을 알게 됐다. 삶의 유한함과 인간이기에 겪어야만 하는 고통들의 존재를 인정하고 하지만 ‘그럼에도 불구하고’ 살아가겠다는 태도를 의미한다. 내가 나를 스스로 꽤 긍정적이라고 생각하는 이유도 이것이다.

앞으로도 좋은 일 만큼이나 안 좋은 일들이 많이 일어나겠지만 그럼에도 쉽게 죽지는 않으리라는 이상한 자신감(?)이 있다. 아마 나름의 풍파를 이겨내고서 얻은 마음의 훈장 같은 무엇일 것 같다.

한 연구에서도 지난 팬데믹과 같이 큰 어려움이 닥쳤을 때 어려움을 심하게 느낀 사람들에서 그렇지 않은 사람들에 비해 비극적 낙관주의가 행복과 더 큰 상관을 보인 것으로 나타났다. 어려울 때일수록 그 어려움을 받아들이지만 여전히 살아갈 수 있을 것이라는 믿음을 갖는 것이 중요하다는 것이 아닐까?

크게 힘들지 않을 때에는 대충 다 잘 될 거라는 안일함만 가지고도 마음이 크게 추락하는 일 없이 지낼 수 있을 것 같다. 하지만 실제로 큰 어려움이 닥쳐와서 그런 안일함만으로 버틸 수 없는 상황이 오면 결국 이 또한 지나갈 것이고(영원한 것은 아무 것도 없다는 의미에서) 나는 계속 살아가게 될 것이라는 덤덤한 믿음이 큰 힘이 되는 것 같다.

어쩌면 그런 깨달음이 바로 심리학자들이 입을 모아 중요하다고 이야기 하는 삶의 의미감과 맞닿아 있는 것일지도 모르겠다.

Leung, M. M., Arslan, G., & Wong, P. T. (2021). Tragic optimism as a buffer against COVID-19 suffering and the psychometric properties of a brief version of the Life Attitudes Scale. Frontiers in Psychology, 12, 646843.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

Loading

15 10월 2024

[산업] 지게차·굴착기·전기·방수·조경 기능사… 은퇴 후 몸값 올리는 자격증

[산업] 지게차·굴착기·전기·방수·조경 기능사… 은퇴 후 몸값 올리는 자격증

지게차·굴착기·전기·방수·조경 기능사… 은퇴 후 몸값 올리는 자격증

[머니채널 핫 클릭] 인기 자격증 ‘톱5′ 어떤 것이 있을까

01 TX7ZQLCKJBC5RGWZ7FXURIRUDQ.png
 
그래픽=이진영

우리나라는 내년이면 국민 5명 중 1명이 65세가 넘는 초고령 사회로 진입한다. 수명이 길어진 만큼, 정년을 마친 후에도 일하려는 건강한 신중년이 늘고 있다. 올 2분기 말 기준, 60대 후반의 경제활동 참가율은 55.5%. 이 나이대 전체 인구 가운데 일을 하거나 일자리를 찾는 사람이 절반이 넘는다는 뜻이다.

재취업으로 인생 2막을 열려면 무엇을 준비해야 할까. 최근 조선일보 경제 유튜브 채널 ‘조선일보 머니’는 중장년 재취업 시장을 집중 조명했다. 중년들의 생애 설계와 직업교육, 일자리를 지원하는 서울시50플러스재단의 황윤주 사업운영본부장이 출연했다. 황 본부장은 “어깨 힘을 빼고 새로운 직업도 마다하지 않는 도전 정신을 갖는 게 가장 중요하다”고 말했다. 다음은 황 본부장과 나눈 일문일답.

02 V5LBJGDFP5GJ5PDWQXQ3PGGAMQ.png
그래픽=이진영

◇은퇴 후 몸값 올려주는 자격증

-최근 50대 이상 중장년층의 자격증 취득 열기가 매우 뜨겁다.

“코로나 이후 실업자가 많이 생겼다. 자영업자 중에서도 가게를 접고 기술을 배워 재취업을 도모하는 사람이 많았졌다고 한다. 그렇다 보니 손쉽게 찾을 수 있는 자격증 시장으로 몰려든 것 같다.”

-특히 임금, 처우 등이 비교적 안정적인 기술직 수요가 많게 나타난다.

“그렇다. 전반적으로 직무를 수행하는 데 나이, 학력, 경력 등에 제한이 없고 시험 과정도 까다롭지 않은 기술 자격증 인기가 높다. 중년 남성이 많이 딴 자격증을 살펴보면 1위가 지게차 운전 기능사다. 그 뒤로 굴착기 운전 기능사, 전기 기능사, 방수 기능사, 조경 기능사 순이다. 안정적 재취업 욕구가 반영됐다고 본다. 예컨대 가장 인기가 높은 지게차 운전 기능사 자격증은 요구하는 기업이 생각보다 다양하다는 점에서 자격증 취득 인원이 늘어난 것으로 보인다. 다만 3년 정도 일해야 업계에서 경력자로 인정을 받을 수 있다고 한다. 현장에서 70대 고령자도 일하는 분야이며, 경력을 쌓으면 개인 사업자로 전환해 일을 이어가는 경우가 많다. 다만 업체에선 자격증만 보는 게 아니라 기술 숙련도를 따지기 때문에 관련 부문에서 경험을 쌓는 것이 매우 중요하다.”

-요즘은 디지털 역량을 갖추면 취업 문이 훨씬 넓어질 것 같다.

“그렇다. 디지털이라고 해서 겁먹을 필요는 없다. 중년 일자리에서 요구하는 디지털 역량은 그리 문턱이 높지 않다. 요즘은 직무 대부분이 디지털 기반이라 아주 전문적 수준까지는 아니더라도 AI, 드론 관련 지식을 간단히라도 배워두면 좋다. 서울시50플러스재단에서 관련 강의를 들을 수 있다.”

-기술이 있으면 재취업이 쉽다지만, 사무직으로 오래 일한 분들에겐 완전 다른 분야로 전직하기가 쉽지는 않을 것 같다.

“일에 대한 인식 전환이 가장 중요하다. 단순 노무일지라도, 임금이 이전만 못하더라도 평생 현역이 되기 위해 기꺼이 하겠다는 인식 전환이 필요하다. 시쳇말로 ‘어깨에서 힘을 빼라’는 것이다. 사실 요즘은 기능직 일자리조차도 취업하기 쉽지 않다. 경쟁이 치열해졌기 때문이다. 열심히 준비해야 한다. 첫 연봉은 낮아도 오래 일하면 연봉은 오른다. 재취업할 때 처음부터 돈을 추구하는 것이 아니라 내가 할 수 있고, 좋아하는 것, 오래 할 수 있는 것이 무엇인지 잘 파악해서 진로를 정해야 한다.”

-재취업 준비에 가장 좋은 시기는 언제인가

“40대 후반이다. 물론 임금 피크제나 전직 교육 등 기회를 활용해 재취업 방향을 설정하거나 자격증을 따두는 것이 좋다.”

-서울시50플러스재단은 중년 재취업을 어떻게 지원하고 있나.

“재취업 일자리에서 오래 머물고자 한다면 전략이 필요한 시대다. 서울시50플러스재단은 재취업 모든 과정을 체계적으로 지원하고 있다. 먼저 재단의 상담 센터를 방문하면 전문 취업 상담사에게 직업 세부 사항을 점검받을 수 있다. 역량 점검부터 취업 방향 설정, 채용 정보 수집 등까지 다양한 혜택을 받을 수 있다. 또 각 캠퍼스에선 동년배들과 고민을 나눌 수 있는 프로그램도 진행된다. 직업훈련이 더 필요하면 인턴십도 연결해 준다. 서울에서 4곳(서부, 중부, 남부, 북부) 캠퍼스를 운영하고 있으니 가까운 곳을 방문하면 좋겠다.”

-재취업이 걱정인 중장년층에게 한마디 해준다면.

“일단 집에서 나오라는 말씀을 드리고 싶다. 모든 것은 집 밖으로 나와서 친구들과 만나고 재단 프로그램에 참여하는 순간부터 시작된다고 생각하면 좋겠다.”

더 오래 일하고 싶은 중년들이 궁금해하는 재취업 성공 전략은 조선일보 경제 유튜브 ‘조선일보 머니’에서 좀 더 자세히 확인할 수 있다.

[출처] https://www.chosun.com/economy/money/2024/10/15/FPWAHFMJVJBS3OKWW4I54K3RUE/

Loading

15 10월 2024

[물리] [표지로 읽는 과학] 빛 본지 20년 그래핀, 잠재력 무궁무진

[물리] [표지로 읽는 과학] 빛 본지 20년 그래핀, 잠재력 무궁무진

[표지로 읽는 과학] 빛 본지 20년 그래핀, 잠재력 무궁무진

입력
사이언스 제공

사이언스 제공

이번 주 국제학술지 ‘사이언스’ 표지에는 ‘그래핀 20세(GRAPHENE AT 20)’라는 문구와 함께 벌집 모양의 탄소 원자들이 여러 층으로 쌓여 있는 그림이 실렸다. 사이언스는 맨 왼쪽은 ‘그래핀’, 가운데는 ‘그래핀 나노플레이트’, 오른쪽은 ‘그래핀 산화물’이라고 설명했다.

올해는 ‘꿈의 물질’이라고 불리는 소재 ‘그래핀’ 탄생 20주년이다. 11일 사이언스는 그래핀 발견 20주년을 기념해 그래핀 발견의 역사와 그래핀의 잠재력을 소개하는 글을 실었다.

그래핀은 흑연의 구성 물질인 탄소 원자들이 벌집 모양으로 연결된 2차원 막이다. 두께가 원자 한 층 수준인 0.35nm(나노미터·1nm는 10억분의 1m) 정도로 얇다. 2004년 영국의 과학자 안드레 가임과 러시아의 과학자 콘스탄틴 노보셀로프는 스카치테이프로 연필심의 재료인 흑연을 계속해서 붙였다 뗐다 하는 방법으로 그래핀을 흑연에서 분리해냈다. 1940년대부터 이론으로만 존재한 그래핀을 탄생시킨 것이다.

가임과 노보셀로프는 그래핀을 발견하고 그 특성을 밝힌 공로로 2010년 노벨상을 받았다. 그래핀은 실리콘에 비해 100배 이상 전기 전도도가 높고 강도는 강철보다 200배 강하다. 열 전도성은 구리나 알루미늄에 비해 10배 이상 좋다. 구조적으로도 굉장히 안정적이다. 면적의 20%를 늘려도 끄떡 없을 정도로 신축성도 좋다. 더구나 이렇게 구부리거나 늘려도 전기 전도성이 사라지지 않는다.

이같은 특성 때문에 당시 그래핀은 새로운 반도체 소자가 될 수 있다는 기대를 받으며 과학계에 스타로 떠올랐다. 유기화학 반응을 이용해 그래핀 반도체를 만들 경우 기존 실리콘 기반 트랜지스터를 대체할 수 있다고 생각했기 때문이다. 또 그래핀을 활용해 셀로판지처럼 얇은 두께의 컴퓨터 모니터나 시계처럼 팔에 착용할 수 있는 휴대전화, 구부러지는 터치스크린, 태양전지판, 종이처럼 접어 지갑에 넣고 다니는 컴퓨터를 만들 수 있을 것으로 예상했다.

하지만 발견 20년이 지난 지금까지 그래핀은 상용화되지 못하고 있다. 그래핀을 얻을 수 있는 혁신적인 기술이 나오지 않아 대량 생산하기 어렵기 때문이다. 그래핀을 만드는 데 너무 많은 돈이 든다는 이야기다. 또 그래핀은 큰 면적으로 제조하는 것이 어렵고, 전류의 흐름을 통제할 수 없다는 등의 한계를 갖고 있다. 고유의 성질을 유지하면서도 다양한 형태로 가공하기 어려웠다.

초기부터 지금까지 그래핀 연구는 그래핀 나노플레이트와 그래핀 산화물 이용에 집중돼 있었다. 그래핀 나노플레이트는 그래핀을 여러 층으로 쌓아 100nm(나노미터, 1nm는 10억분의 1m) 미만 두께의 판 형태로 만든 것이다. 그래핀 나노플레이트 형태로 그래핀을 여러 가지 물질과 섞으면 그래핀의 성질을 유지하면서도 다양한 형태로 가공할 수 있다.

그래핀 산화물은 그래핀 표면에 산화를 일으켜 만든 물질이다. 그래핀 산화물은 물에 풀어져 마치 용액처럼 다룰 수 있어 다양한 형태로 제품을 제작하는 데 유용하다. 그래핀 나노플레이트와 그래핀 산화물은 코팅 및 보강재처럼 기존 제품의 기능을 향상시키며 상용화되고 있다. 그래핀 나노플레이트는 부식 방지 코팅, 난연제, 전자파 차폐 재료로 쓰였다.

하지만 사이언스는 여전히 그래핀 자체도 다양한 잠재력을 가진 덕분에 활발히 연구되고 있다고 설명했다. 스페인, 덴마크, 영국 등 유럽을 중심으로 반도체 제조 라인에 대량 사용할 수 있도록 그래핀을 간단하게 만드는 방법을 연구 중이다. 국내에서는 홍병희 서울대 화학부 교수가 2009년 그래핀 대면적 합성기술을 구현하고 2012년 ‘그래핀스퀘어’를 창업해 전 세계 그래핀 시장을 선도하기 위해 준비 중이다.

또 2차원 물질을 쌓아 올려 물성을 측정하는 ‘트위스트로닉스’ 연구에서도 그래핀에 주목하고 있다. 미국물리학회 학술대회에서 미국 매사추세츠공대 (MIT) 연구팀이 그래핀 두 장을 다른 각도로 비틀어 붙여 초전도체가 되는 것을 실험적으로 증명하면서부터다. 사이언스는 그래핀이 하루빨리 실험실을 벗어나 산업에서도 유용하게 쓰일 수 있길 바란다고 기대했다.

Loading

12 10월 2024

[사회과학] [박진영의 사회심리학] 고통은 ‘주관적’…홀로코스트에서 살아남은 이유

[사회과학] [박진영의 사회심리학] 고통은 ‘주관적’…홀로코스트에서 살아남은 이유

[박진영의 사회심리학] 고통은 ‘주관적’…홀로코스트에서 살아남은 이유

입력
게티이미지뱅크 제공

게티이미지뱅크 제공

우리가 흔히 ‘인생은 고통’이라고 이야기할 때 사용하는 고통(suffering)의 의미에 관해 조사할 일이 있었다. 아무래도 신체적, 심리적으로 심각한 고통을 겪는 사람들을 자주 보게 되는 의사들이 주로 만성 통증, 말기 암 환자들을 치료하는 입장에서 고통에 대해 이야기하는 문헌들이 다수 있었다.

“고통은 개인의 온전함을 위협하는 사건들에 의해 괴로움을 경험하는 상태로 정의될 수 있다. 고통은 사회적 역할, 집단 정체성, 자기 자신과의 관계, 신체적 측면, 가족과의 관계, 또는 초월적인 존재와의 관계와 등 삶의 모든 영역에서 발생할 수 있다(Cassell, 1982).”

1982년 에릭 카셀이라는 의사는 고통에 대해 위와 같은 정의를 내렸다. 흥미롭게도 신체적 통증 뿐 아니라 삶의 다양한 영역에서 발생하는 심리적 괴로움들을 아울러 고통을 정의한 것을 볼 수 있다.

관련 문헌들을 더 조사하던 와중 또 다른 흥미로운 연구를 만날 수 있었다. 헨리 비처라는 의사가 전쟁에서 큰 부상을 입고 돌아온 군인들과 사고 등으로 인해 비슷하게 큰 부상을 입은 민간인들을 대상으로 신체적 고통과 심리적 고통에 대해 연구한 논문이었다.

통증과 관련해서 일관되게 발견되는 사실이라면 의학적, 객관적으로 심각한 부상 정도와 개인이 느끼는 통증의 강도, 통증으로 인해 느끼는 불행 사이에 생각보다 큰 상관이 없다는 것이라고 한다. 예를 들어 같은 부상을 입어도 어떤 사람은 아직 버틸만 하다고 하는 반면 다른 사람은 삶의 희망을 잃을 정도로 큰 영향을 받는다.

비처는 전쟁에서 부상을 입고 돌아온 군인들과 각종 사고로 인해 비슷한 수준의 부상을 입은 민간인들을 비교했다. 그 결과 평균적으로 군인들의 부상이 더 심각했음에도 군인들은 민간인들에 비해 사고로 인한 정신적 충격을 덜 받은 듯 보였다고 한다.

그 이유로 군인들은 통증은 심하지만 전쟁에서 살아나왔고 이제 집에 갈 수 있다는 사실에서 큰 안도감과 행복을 느꼈다는 점을 지목했다. 반면 민간인들은 평온한 일상을 누리다가 갑자기 부상으로 인해 삶이 망가졌다고 느꼈다고 한다.

부상 전후 비교의 기준이 거대한 죽음의 소용돌이였던 사람들은 부상을 입은 고통보다 죽다가 ‘살아났다’는 기쁨이 더 컸고 반대로 조용한 일상을 보내고 있던 사람들은 부상을 갑작스럽게 닥쳐온 거대한 불운으로 바라보고 슬픔에 잠겼다는 것이다.

그 결과 군인들은 약 32%만 마약성 진통제를 처방해 달라고 했지만 민간인들은 83%가 강력한 진통제를 원했다고 한다. 이런 관찰을 통해 비처는 “환자들이 종합적으로 경험하는 고통의 정도는 신체적 통증이 그들에게 있어 어떤 주관적 의미를 가지는지에 따라 결정된다”고 결론지었다.

나치 치하 홀로코스트에서 살아남은 심리학자 빅토르 프랑클도 비슷한 이야기를 한 바 있다. 그는 절대적인 절망 속에서도 인간은 삶의 의미를 찾아 자신의 존엄성을 지킬 수 있다고 보았다. 자신은 수용소 안에서도 이따금씩 하늘을 바라보며 아름다움을 음미할 수 있었고 따라서 살아남았다고 이야기했다.

반면 무엇보다 마음이 텅 비어 있던 사람들이 제일 먼저 죽어 나갔다고 언급했다. 고통은 어떤 형태로든 아무 때에나 우리 삶을 덮쳐오지만 마음에 작은 불씨가 꺼지지 않고 타고 있다면 적어도 우리의 마음만은 죽지 않을 수 있다는 것이다.

이렇게까지 거대한 고통 앞에서도 담담하게 하늘을 바라볼 수 있는 사람들이 있다는 사실이 놀라울 따름이다. 그렇지만 한 가지 깊게 공감할 수 있었던 부분은 사람은 마음이 죽을 때 진짜로 죽는다는 점이다.

살면서 가장 힘들었던 경험들을 떠올려 보면 몸이 힘든 것 보다도 마음이 지옥일 때였다. 주변 사람들을 믿지 못해서 내밀어진 손을 잡지 못하고 내가 나의 존엄성을 의심하고 내 삶이 가치 없다고 느낄 때면 살아있는 것이 너무 큰 짐처럼 느껴졌다.

실제로 극단적인 선택을 하는 사람들의 경우 다른 이유보다 스스로가 자신을 하찮고 쓸모 없고 사랑 받을 가치가 없는 존재로 여길 때 그 괴로움에서 도망치기 위해 (살기 위해) 죽음이라는 탈출구를 선택한다는 견해들이 있다.

우리는 다 연약하고 휩쓸리기 쉬운 마음을 가지고 태어나서 아주 작은 일에도 위태롭게 흔들릴 수 있는 미약한 존재들이다. 그런 점에서 인생은 고통이라는 표현이 꽤 정확하다고 느껴진다. 언제라도 마음이 지옥에 떨어질 수 있는 가여운 존재들이기에 우리는 서로에게 친절해야 하는 것인가보다.

그럼에도 내 고통이 다른 사람들의 고통보다 더 크게 느껴질 때면 언젠가 뉴스에서 접한 성적이 잘 나오지 않았다는 이유로 극단적인 선택을 한 초등학생을 떠올리곤 한다. 그 아이가 겪은 사건 자체는 매우 사소하지만 그 사소한 사건으로 인해 아이의 작은 마음은 날개 없이 추락했던 것이 아닌지. 얼마나 감당하기 어려운 고통이었을 지 생각해본다.

Beecher, H. K. (1956). Relationship of significance of wound to pain experienced. Journal of the American Medical Association, 161(17), 1609-1613.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다

Loading

5 10월 2024

[사회과학] [박진영의 사회심리학] ‘셀프 도덕적 판단’의 위험성

[사회과학] [박진영의 사회심리학] ‘셀프 도덕적 판단’의 위험성

[박진영의 사회심리학] ‘셀프 도덕적 판단’의 위험성

입력
게티이미지뱅크 제공

게티이미지뱅크 제공

요즘 심리학계에서 뜨거운 이슈라면 어떤 이슈에 ‘도덕/비도덕적’이라는 프레임을 씌우는 현상이 그 중 하나다.

예를 들어 성소수자 인권, 임신중절 같은 사실은 그냥 내가 낯설고 싫기 때문에 반대하는 이슈에 대해 성소수자 인권을 챙기기 시작하고, 임신중절을 허용하면 아이들이 동성애자가 되고, 여성들이 임신중절을 마구 하게 되면서 나라와 사회가 무너지기 때문에 반대한다고 주장하는 식이다.

한편 이렇게 환경이 사람의 행동에 미치는 영향을 과하게 인지하면서 동시에 ‘총기’ 같은 무서운 물건이 아무 제약 없이 돌아다니는 데에 찬성하는 것은 무엇 때문인지 알 수 없는 일이다.

물론 무엇이 도덕적이고 무엇이 비도덕적인지에 대한 기준은 시대가 변함에 따라서도 변한다. 예를 들어 과거에는 개인의 취향일 뿐 도덕/비도덕의 영역에 들어가지 않았던 것들(예를 들어 흡연, 채식)이 현재에 와서는 비도덕적이거나 도덕적이라는 도덕 판단의 대상이 되기도 한다.

도덕화 현상의 핵심은 시대와 지식 수준이 변하면서 자연스럽게 도덕법칙이 바뀌는 현상과 달리 자신의 주장을 더 돋보이게 하기 위해 자신이 (또는 내집단이) 반대하는 무언가에 대해 ‘비도덕적’이라는 프레임을 열심히 씌우는 행위다.

조슈아 리 멜버른대의 심리학자 등에 의하면 어떤 이슈의 도덕화는 크게 두 가지 프로세스를 거쳐 나타난다.

하나는 감정, 특히 역겨움과 같은 강한 부적 감정을 자극하는 것이고 두 번째는 해로움을 강조하는 것이다. 육식이나 임신중절에 대해 이야기 할 때 자극적이고 잔인한 사진을 보여주는 것이 한 가지 예다. 앞서 이야기한대로 다양한 이슈에서 XX를 허용하면 학교와 가정이 무너지고 나아가 나라와 사회가 무너진다며 해로움을 강조하는 것도 흔히 나타난다.

연구 결과 이렇게 역겨움과 해로움을 강조하는 이야기를 들은 사람은 그렇지 않은 사람들에 비해 해당 이슈를 더 도덕 판단의 이슈로 여기는 모습을 보였다. 이렇게 이전에 별 생각 없던 이슈가 도덕의 옷을 입으면 ‘사실’보다 더 강한 설득력을 보이는 현상도 나타났다.

또한 도덕과 전혀 상관 없는 ‘자주’, ‘시도하다’ 같은 단어들에 역겨운 감정을 연결시키고 그 단어를 사용해서 어떤 인물의 행동을 묘사하면 그렇지 않았을 때에 비해 더 해당 인물을 비도덕적으로 여기게 된다는 연구 결과도 있었다. 도덕판단의 대상이나 내용은 철저하게 이성의 영역이어야 할 것 같지만 실제로는 감정에 의해 크게 좌우된다는 것이다.

생각해보면 전쟁이나 학살이 일어나는 현장에서도 상대편을 ‘바퀴벌레’ 라고 칭하는 등 비인간화 뿐 아니라 상대를 더럽고 해로운 존재로 프레이밍 하는 (비)도덕화 현상 또한 흔히 관찰할 수 있다. 또한 과거에 노예제 폐지에 관한 이야기가 오갈 때도 노예제를 폐지하면 미개해서 도덕적 행동을 할 능력이 없는 유색인종들이 득세해서 백인 여성들을 강간할 것이고 그래서 가정이 무너지고 나아가 나라와 사회가 무너질 것이라고 잔뜩 겁을 줬던 역사가 있다.

근래에는 신종 코로나바이러스 감염증(COVID-19·코로나19) 팬데믹이 한창이던 시절 마스크 쓰기를 권장하면 신체의 자유가 침해되고 마스크가 호흡곤란(?)을 유발하는 등의 이유로 마스크 쓰기를 권장하는 것은 비도덕적이라고 이야기하던 사람들이 있었다. 이들 중 다수가 마스크를 쓰지 않아서 병을 전파함으로써 노약자의 사망을 야기하는 것보다도 마스크 쓰기를 권하는 행동이 더 비도덕적이라고 진지하게 믿었다고 한다.

비슷하게 자동차 안전벨트를 법제화 할 때에도 안전벨트를 착용하게 하는 것은 자동차 사고로 다수가 사망하게 두는 것보다 비도덕적이라는 주장이 있었다고 한다.

이렇게 인간은 무엇이든지 도덕판단의 대상으로 만들어 버리는 재주가 있기 때문에 서로 다른 정치성향을 가진 사람들 모두가 자신(우리 편)은 상대방보다 훨씬 더 도덕적이고 정의롭다고 믿는 편이라는 발견이 있었다. 미국의 경우 2021년 선거 결과에 불복하며 국회의사당을 점거한 사람들 또한 자신들이야 말로 정의의 편이라는 강한 신념을 보였다고 한다.

한 가지 확실한 게 있다면 우리가 나 자신이나 타인에 대해 내리는 도덕판단은 자주 우리의 ‘감정’과 ‘동기’에 의해 영향을 받으며 꽤나 허술한 편이라는 것이겠다. 누군가를 조각조각 비판하기 전에 나의 행동 또한 세세히 따져본다면 조금이나마 오류를 줄일 수 있을까.

Rhee, J. J., Schein, C., & Bastian, B. (2019). The what, how, and why of moralization: A review of current definitions, methods, and evidence in moralization research. Social and Personality Psychology Compass, 13(12), e12511.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다

Loading

30 9월 2024

[인공지능 기술] 소규모 언어 모델(SLM) 소규모 언어 모델의 부상: AI를 위한 효율성과 맞춤화 : Small Language Models (SLMs)

[인공지능 기술] 소규모 언어 모델(SLM) 소규모 언어 모델의 부상: AI를 위한 효율성과 맞춤화 : Small Language Models (SLMs)

Small Language Models (SLMs)

The Rise of Small Language Models: Efficiency and Customization for AI

Large language models (LLMs) have captured headlines and imaginations with their impressive capabilities in natural language processing. However, their massive size and resource requirements have limited their accessibility and applicability. Enter the small language model (SLM), a compact and efficient alternative poised to democratize AI for diverse needs.

What are Small Language Models?

SLMs are essentially smaller versions of their LLM counterparts. They have significantly fewer parameters, typically ranging from a few million to a few billion, compared to LLMs with hundreds of billions or even trillions. This difference in size translates to several advantages:

  • Efficiency: SLMs require less computational power and memory, making them suitable for deployment on smaller devices or even edge computing scenarios. This opens up opportunities for real-world applications like on-device chatbots and personalized mobile assistants.
  • Accessibility: With lower resource requirements, SLMs are more accessible to a broader range of developers and organizations. This democratizes AI, allowing smaller teams and individual researchers to explore the power of language models without significant infrastructure investments.
  • Customization: SLMs are easier to fine-tune for specific domains and tasks. This enables the creation of specialized models tailored to niche applications, leading to higher performance and accuracy.

How do Small Language Models Work?

Like LLMs, SLMs are trained on massive datasets of text and code. However, several techniques are employed to achieve their smaller size and efficiency:

  • Knowledge Distillation: This involves transferring knowledge from a pre-trained LLM to a smaller model, capturing its core capabilities without the full complexity.
  • Pruning and Quantization: These techniques remove unnecessary parts of the model and reduce the precision of its weights, respectively, further reducing its size and resource requirements.
  • Efficient Architectures: Researchers are continually developing novel architectures specifically designed for SLMs, focusing on optimizing both performance and efficiency.

Benefits and Limitations

Small Language Models (SLMs) offer the advantage of being trainable with relatively modest datasets. Their simplified architectures enhance interpretability, and their compact size facilitates deployment on mobile devices.

A notable benefit of SLMs is their capability to process data locally, making them particularly valuable for Internet of Things (IoT) edge devices and enterprises bound by stringent privacy and security regulations.

However, deploying small language models involves a trade-off. Due to their training on smaller datasets, SLMs possess more constrained knowledge bases compared to their Large Language Model (LLM) counterparts. Additionally, their understanding of language and context tends to be more limited, potentially resulting in less accurate and nuanced responses when compared to larger models.

Comparision of SLM and LLM

Some Examples of Small Language Models (SLMs)

  1. DistilBERT: DistilBERT represents a more compact, agile, and lightweight iteration of BERT, a pioneering model in natural language processing (NLP). — https://huggingface.co/docs/transformers/model_doc/distilbert
  2. Orca 2: Developed by Microsoft, Orca 2 is the result of fine-tuning Meta’s Llama 2 using high-quality synthetic data. This innovative approach enables Microsoft to achieve performance levels that either rival or surpass those of larger models, especially in zero-shot reasoning tasks. — https://huggingface.co/microsoft/Orca-2-13b
  3. Phi 2: Microsoft’s Phi 2 is a transformer-based Small Language Model (SLM) engineered for efficiency and adaptability in both cloud and edge deployments. According to Microsoft, Phi 2 exhibits state-of-the-art performance in domains such as mathematical reasoning, common sense, language understanding, and logical reasoning. — https://huggingface.co/docs/transformers/main/model_doc/phi
  4. BERT Mini, Small, Medium, and Tiny: Google’s BERT model is available in scaled-down versions — ranging from Mini with 4.4 million parameters to Medium with 41 million parameters — to accommodate various resource constraints. — https://huggingface.co/prajjwal1/bert-mini
  5. GPT-Neo and GPT-J: GPT-Neo and GPT-J are scaled-down iterations of OpenAI’s GPT models, offering versatility in application scenarios with more limited computational resources. — https://huggingface.co/docs/transformers/model_doc/gpt_neo
  6. MobileBERT: Tailored for mobile devices, MobileBERT is specifically designed to optimize performance within the constraints of mobile computing. — https://huggingface.co/docs/transformers/model_doc/mobilebert
  7. T5-Small: As part of Google’s Text-to-Text Transfer Transformer (T5) model series, T5-Small strikes a balance between performance and resource utilization, aiming to provide efficient text processing capabilities. — https://huggingface.co/t5-small

The Future of Small Language Models

As research and development progress, we can expect SLMs to become even more powerful and versatile. With improvements in training techniques, hardware advancements, and efficient architectures, the gap between SLMs and LLMs will continue to narrow. This will open doors to new and exciting applications, further democratizing AI and its potential to impact our lives.

In conclusion, small language models represent a significant shift in the landscape of AI. Their efficiency, accessibility, and customization capabilities make them a valuable tool for developers and researchers across various domains. As SLMs continue to evolve, they hold immense promise to empower individuals and organizations alike, shaping a future where AI is not just powerful, but also accessible and tailored to diverse needs.

[출처] https://medium.com/@nageshmashette32/small-language-models-slms-305597c9edf2

소규모 언어 모델(SLM)

소규모 언어 모델의 부상: AI를 위한 효율성과 맞춤화

대규모 언어 모델(LLM)은 자연어 처리에서 인상적인 역량으로 헤드라인과 상상력을 사로잡았습니다. 그러나 엄청난 크기와 리소스 요구 사항으로 인해 접근성과 적용성이 제한되었습니다. 다양한 요구에 맞게 AI를 민주화할 수 있는 컴팩트하고 효율적인 대안인 소규모 언어 모델(SLM)이 등장했습니다.

소규모 언어 모델이란?

SLM은 본질적으로 LLM 대응물의 더 작은 버전입니다. LLM이 수백억 또는 수조 개에 달하는 것과 비교했을 때, 일반적으로 수백만에서 수십억 개에 이르는 매개변수가 훨씬 적습니다. 이러한 크기의 차이는 여러 가지 이점으로 이어집니다.

  • 효율성: SLM은 컴퓨팅 파워와 메모리가 덜 필요하므로 더 작은 기기나 엣지 컴퓨팅 시나리오에 배포하는 데 적합합니다. 이를 통해 온디바이스 챗봇 및 개인화된 모바일 어시스턴트와 같은 실제 애플리케이션에 대한 기회가 열립니다.
  • 접근성: 리소스 요구 사항이 낮기 때문에 SLM은 더 광범위한 개발자와 조직에서 더 쉽게 접근할 수 있습니다. 이를 통해 AI가 민주화되어 소규모 팀과 개별 연구자가 상당한 인프라 투자 없이 언어 모델의 힘을 탐구할 수 있습니다.
  • 사용자 정의: SLM은 특정 도메인 및 작업에 대해 미세 조정하기가 더 쉽습니다. 이를 통해 틈새 시장 애플리케이션에 맞게 조정된 전문 모델을 만들 수 있어 더 높은 성능과 정확성을 얻을 수 있습니다.

소규모 언어 모델은 어떻게 작동하나요?

LLM과 마찬가지로 SLM은 방대한 텍스트 및 코드 데이터 세트에서 학습됩니다. 그러나 더 작은 크기와 효율성을 달성하기 위해 여러 가지 기술이 사용됩니다.

  • 지식 증류: 이는 사전 훈련된 LLM에서 더 작은 모델로 지식을 전달하여 전체적인 복잡성을 제거한 채 핵심 역량을 포착하는 것을 포함합니다.
  • 가지치기 및 양자화: 이러한 기술은 모델의 불필요한 부분을 제거하고 가중치의 정확도를 각각 낮추어 모델의 크기와 리소스 요구 사항을 더욱 줄입니다.
  • 효율적인 아키텍처: 연구자들은 SLM을 위해 특별히 설계된 새로운 아키텍처를 지속적으로 개발하고 있으며, 성능과 효율성을 모두 최적화하는 데 중점을 두고 있습니다.

이점 및 제한 사항

소규모 언어 모델(SLM)은 비교적 적은 데이터 세트로 훈련할 수 있다는 장점이 있습니다. 간소화된 아키텍처는 해석 가능성을 높이고, 컴팩트한 크기는 모바일 기기에 배포하는 데 용이합니다.

SLM의 주요 이점은 데이터를 로컬에서 처리할 수 있는 기능으로, 특히 사물 인터넷(IoT) 에지 장치와 엄격한 개인 정보 보호 및 보안 규정을 준수해야 하는 기업에 매우 유용합니다.

그러나 소규모 언어 모델을 배포하는 데는 트레이드오프가 수반됩니다. 소규모 데이터 세트에 대한 훈련으로 인해 SLM은 대규모 언어 모델(LLM) 대응 모델에 비해 더 제한된 지식 기반을 가지고 있습니다. 또한 언어와 맥락에 대한 이해가 더 제한되는 경향이 있어 대규모 모델에 비해 덜 정확하고 미묘한 응답이 나올 가능성이 있습니다.

SLM과 LLM의 비교

소규모 언어 모델(SLM)의 몇 가지 예

  1. DistilBERT : DistilBERT는 자연어 처리(NLP)의 선구적 모델인 BERT의 보다 컴팩트하고 민첩하며 가벼운 반복을 나타냅니다. — https://huggingface.co/docs/transformers/model_doc/distilbert
  2. Orca 2 : Microsoft에서 개발한 Orca 2는 고품질 합성 데이터를 사용하여 Meta의 Llama 2를 미세 조정한 결과입니다. 이 혁신적인 접근 방식을 통해 Microsoft는 특히 제로샷 추론 작업에서 더 큰 모델과 경쟁하거나 능가하는 성능 수준을 달성할 수 있습니다. — https://huggingface.co/microsoft/Orca-2-13b
  3. Phi 2 : Microsoft의 Phi 2는 클라우드와 엣지 배포 모두에서 효율성과 적응성을 위해 설계된 트랜스포머 기반 Small Language Model(SLM)입니다. Microsoft에 따르면 Phi 2는 수학적 추론, 상식, 언어 이해 및 논리적 추론과 같은 도메인에서 최첨단 성능을 보여줍니다. — https://huggingface.co/docs/transformers/main/model_doc/phi
  4. BERT Mini, Small, Medium, Tiny : Google의 BERT 모델은 440만 개의 매개변수가 있는 Mini부터 4,100만 개의 매개변수가 있는 Medium까지 다양한 리소스 제약을 수용할 수 있는 축소 버전으로 제공됩니다. — https://huggingface.co/prajjwal1/bert-mini
  5. GPT-Neo 및 GPT-J : GPT-Neo 및 GPT-J는 OpenAI의 GPT 모델을 축소한 버전이며, 더 제한된 계산 리소스가 있는 애플리케이션 시나리오에서 다양성을 제공합니다. — https://huggingface.co/docs/transformers/model_doc/gpt_neo
  6. MobileBERT : 모바일 기기에 맞춰 제작된 MobileBERT는 모바일 컴퓨팅의 제약 내에서 성능을 최적화하도록 특별히 설계되었습니다. — https://huggingface.co/docs/transformers/model_doc/mobilebert
  7. T5-Small : Google의 Text-to-Text Transfer Transformer(T5) 모델 시리즈의 일부인 T5-Small은 성능과 리소스 활용 간의 균형을 맞춰 효율적인 텍스트 처리 기능을 제공하는 것을 목표로 합니다. — https://huggingface.co/t5-small

소규모 언어 모델의 미래

연구 개발이 진행됨에 따라 SLM이 더욱 강력하고 다재다능해질 것으로 예상할 수 있습니다. 훈련 기술, 하드웨어 발전, 효율적인 아키텍처의 개선으로 SLM과 LLM 간의 격차는 계속 좁아질 것입니다. 이를 통해 새롭고 흥미로운 응용 분야로의 문이 열리고 AI와 그것이 우리 삶에 영향을 미칠 잠재력이 더욱 민주화될 것입니다.

결론적으로, 소규모 언어 모델은 AI의 풍경에서 상당한 변화를 나타냅니다. 효율성, 접근성 및 사용자 정의 기능은 다양한 도메인의 개발자와 연구자에게 귀중한 도구가 됩니다. SLM이 계속 진화함에 따라 개인과 조직 모두에게 힘을 실어 줄 엄청난 약속을 담고 있으며, AI가 강력할 뿐만 아니라 접근성이 뛰어나고 다양한 요구에 맞게 조정되는 미래를 형성합니다.

 
 

Loading