4 2월 2024

[사회과학] [박진영의 사회심리학] 대우받을 ‘자격’이 있다고 믿는 사람들

[사회과학] [박진영의 사회심리학] 대우받을 ‘자격’이 있다고 믿는 사람들

[박진영의 사회심리학] 대우받을 ‘자격’이 있다고 믿는 사람들

입력

게티이미지뱅크 제공

별 다른 의미 없는 타인의 언행에 쉽게 ‘나를 무시했다’며 화를 내거나 딱히 삶에서 크게 성취한 것도 없이 다른 사람들의 존경이나 ‘특별한 대접’을 받길 바라는 사람들이 있다. 흔히 ‘자격 의식(sense of entitlement)’이 심한 사람들이 보이는 특징이다.

이들은 흔히 주변 사람들에게 공격적인 성향을 보이며 다른 사람들에게 피해를 입히더라도 자기 자신의 이익만 챙기는 이기적인 모습도 자주 보인다. 또한 수단과 방법을 가리지 않고 비윤리적인 방법으로라도 돈과 명예, 사회적 지위와 관련된 요소들을 수집하려고 애쓰는 편이다.

무엇이 이들로 하여금 자신은 남들보다 특별하며 더 좋은 대접을 받을 자격이 있다고 생각하게 만들었는지는 알 수 없지만 이렇게 자기 존재의 중요성을 과대평가하고 과하게 부풀려진 자의식을 가지고 있는 사람들의 경우 여러가지 방식으로 주변 사람들을 피곤하게 만든다. 대표적인 예가 바로 타인을 악의적으로 질투하는 것이다.

암스테르담대의 심리학자 옌스 랭은 참가자들을 대상으로 자격의식(“솔직히 나는 다른 사람들보다 더 나은 대접을 받을 자격이 있다”) 수준과 사회적 지위를 향한 욕망(“주변 사람들이 나를 존경하고 우러러보도록 만들려고 노력한다”, “다른 사람들이 나를 통제하게 내러려두기보단 내가 사람들을 통제하려고 노력하는 편이다”), 마지막으로 악의적인 질투심(“나보다 잘나가는 사람들이 망했으면 좋겠다”)에 대해 물었다. 그 결과 자격의식이 높은 사람들이 그렇지 않은 사람들에 비해 사회적 지위를 향한 욕망이 높고 악의적인 질투심 또한 높은 것으로 나타났다.

또 다른 실험에서는 한 그룹(자격의식 조건)의 사람들에게

① 왜 나는 삶에서 가질 수 있는 가장 좋은 일들을 바랄 자격이 있는지
② 왜 나는 다른 사람들보다 더 좋은 삶을 누릴 자격이 있는지
③ 왜 내 삶은 내가 바라는 대로만 흘러가야 하는지

위 3가지를 떠올려 보게 했고 다른 그룹의 사람들에게는 반대로 왜 1, 2, 3을 누릴 것이라고 기대하지 말아야 하는 이유에 대해 떠올려보도록 했다.

그리고 나서 사회적 지위를 향한 욕망과 악의적인 질투심을 측정했을 때 자격의식을 높인 조건의 사람들이 그렇지 않은 조건의 사람들에 비해 사회적 지위를 향한 갈망과 자신보다 잘 나가는 사람들을 향한 악의적인 질투를 더 심하게 보이는 현상이 관찰되었다.

하지만 사회적 지위를 향한 그들의 열망과는 별개로 주변 사람들에게 실제 이 사람에 대해 어떻게 생각하는지에 대해 물었을 때는 자격의식이 높은 이들은 다른 사람들 위에 올라서려는 지배욕구는 높으나 실제로 그럴 만큼 실력이나 인간성이 좋지는 않다는 평가를 받고 있는 것으로 나타났다.

자격의식이 높은 사람들은 사회적 지위에 대해 갈망하며 스스로 자신에 대해 높은 평가를 내리고 있는 것과 다르게 주변으로부터 딱히 좋은 평가를 받고 있지는 않았다.

아무래도 질투가 심하고 이기적이며 비윤리적이기까지 한 사람에 대해 좋은 평가를 내리기는 쉽지 않을 것이다. 또한 사회적 지위를 얻기 위해 굳이 타인을 깎아내리고 이기적·비윤리적인 행동을 해야 하는 상황이라면 딱히 특출난 능력을 가지고 있을 것 같지도 않다.

결국 이들은 현실과 다르게 자의식만 높아서 이상과 현실 사이의 갭을 줄이기 위해 여러가지 편법을 써야만 하는 안타까운 상황에 놓인 사람들이라고 볼 수 있을 것 같다.

하지만 실제로 주변 사람들의 인정과 존경, 영향력을 얻기 위해서는 다른 사람들 위에 군림하려 애쓰기보다 실제로 ‘좋은 사람’이 되기 위해 노력하는 것이 훨씬 효과적이라는 점을 기억하자. 이기적이고 비윤리적인 길을 걷는 걷은 단기적으로는 이득일 지 모르겠으나 장기적으로는 ‘상종해서는 안 되는 사람’이라는 평가를 불러오기 마련이다.

물론 어느 한 가지 특성에 있어 남들보다 뛰어나다고 해서 그것이 바로 더 좋은 대접과 특권을 보장해야 하는 것도 아니라는 것도 기억하자. 사람들은 모두 수천가지의 특성을 가지고 있고 그 중 한 두개 정도는 다른 사람들보다 뛰어날 수 있으나 또 다른 영역에서는 상대적으로 부족하기 마련이다. 이런 점을 고려해보면 절대적으로 특출나고 중요한 인간이란 없는 법이다.

몇 가지 특성이 남들보다 낫다고 해서 반드시 더 행복해야 하고 그렇지 않은 사람들은 불행해야 한다는 법이 존재하는 것도 아니다. 이렇게 경직된 사고방식을 가지고 있을수록, 왜 저 사람은 나와 비슷하거나 혹은 못난 것 같은데 나보다 더 행복해 보이냐며 남들과 비교하고 질투하면서 점점 더 고립되고 불행해져 갈 뿐이다. 추상적인 관념 또는 허상에 불과한 나의 이미지 나라는 사람의 중요성 등에 집중할 시간에 내 눈 앞에서 실제로 벌어지고 있는 다양한 경험에 집중하며 실제로 밀도 있는 삶을 꾸려나가는 것이 훨씬 바람직할 것이다.

Lange, J., Redford, L., & Crusius, J. (2019). A status-seeking account of psychological entitlement. Personality and Social Psychology Bulletin, 45(7), 1113-1128.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다

[출처] https://n.news.naver.com/article/584/0000025864?cds=news_media_pc

Loading

1 2월 2024

[인공지능 기술] 인간 추론 능력 극대화하는 AI

[인공지능 기술] 인간 추론 능력 극대화하는 AI

인간 추론 능력 극대화하는 AI

입력 
수정2024.01.31. 오후 1:40
KAIST

게티이미지뱅크 제공

국내 연구진이 인공지능(AI)으로 인간의 추론 능력을 극대화하는 기술을 개발했다. 단번에 추론을 하도록 유도해 학습 효율을 향상하는 방식이다. 스마트 교육, 게임 콘텐츠 개발, 추론 능력 측정, 인지훈련 등 인간의 추론 학습과 관련된 모든 분야에 적용이 가능할 것으로 기대된다.

KAIST는 이상완 뇌인지과학과 교수 연구팀이 인간의 빠른 추론 능력을 유도해 인과관계의 학습 효율을 향상할 수 있는 뇌 기반 AI 기술개발에 성공했다고 31일 밝혔다. 연구 결과는 국제학술지 ‘셀 리포트’ 온라인판에 30일 게재됐다.

연구팀은 이전 연구에서 인간의 원샷 추론 과정을 모델링하고 전두엽과 해마가 이러한 과정에 관여하고 있음을 규명한 바 있다. 이번 연구에서는 이 모델에 인간의 원샷 추론 과정을 특정한 상태로 유도하기 위해 알파고에 사용된 바 있는 심층 강화학습 기술을 접목했다. 강화학습 알고리즘이 인간의 원샷 추론 과정을 수없이 시뮬레이션하면서 전두엽과 해마가 가장 효율적으로 학습할 수 있는 최적의 조건을 탐색하는 과정이다.

인공지능(AI)으로 인간의 추론 능력을 극대화하는 기술을 설명한 개념도. KAIST 제공

연구팀은 126명의 인간 피험자를 대상으로 한 인과관계 학습 및 추론 실험에서 제안 기술을 사용해 학습했을 때 단순 반복 학습 대비 최대 약 40%까지 학습 효율이 향상됨을 확인했다. 나아가 오랜 시간에 걸쳐 신중하게 학습하거나 몇 가지 단서만을 조합해 빠르게 결론을 도출하는 것 같은 개인별 학습 성향을 고려한 맞춤형 설계가 가능함을 보였다.

인간의 사고체계에 대한 뇌과학적인 이해를 바탕으로 원샷 추론과 같은 인간의 잠재적 능력을 극대화하는 이 기술은 차세대 인공지능의 중요한 도전과제 중 하나다. 뇌 기반 인공지능 기술은 인간과 유사한 사고체계를 바탕으로 가치판단을 할 수 있으므로 장기적으로 인간과 인공지능이 협업하는 분야에서 인공지능의 신뢰성 및 윤리성을 높이는 데도 기여할 수 있을 것으로 기대된다.

개발 기술은 스마트 교육, 게임 콘텐츠 개발, 추론 능력 측정, 인지훈련 등 인간의 추론 학습과 관련된 모든 분야에 적용될 수 있다. 기존 기술은 단편적인 기억회상, 특정 인지기능, 정답률 증가와 같은 행동적 측면에 집중해 왔다면 이번 기술은 인공지능을 이용해 과거의 경험을 일반화시키는 인간의 사고체계 자체를 높이는 가능성을 확인한 최초의 사례로 평가된다.

논문의 제1 저자 이지항 상명대 교수는 “인간의 인지기능을 인공지능에 이식해 뇌 기반 인공지능을 실현하는 사례를 확인했다”며 “이를 통해 인간의 고위 수준 인지를 적절한 방향으로 유도할 수 있는 새로운 인간-인공지능 상호작용 패러다임을 제시했다ˮ고 말했다. 이어 “인간중심 인공지능 연구개발뿐만 아니라 바이오메디컬 분야, 특히 정신 건강과 관련된 디지털 치료 분야에 적용했을 때 큰 파급력을 보일 것ˮ이라고 기대했다.

연구 책임자인 이상완 교수는 “이번 기술의 잠재력은 인공지능의 방대한 지식을 인간이 빠르게 흡수할 수 있는 형태로 변환할 수 있다는 데 있다ˮ며 “챗GPT, GPT-4와 같은 언어 인공지능에서 추출되는 다양한 정보를 인간이 빠르게 추론 학습할 수 있게 변환하거나 게임이나 가상현실의 콘텐츠를 인간의 추론 과정에 맞게 최적화해 몰입도를 높일 수 있고, 반대로 몰입도를 적절한 수준에서 제어할 경우 중독을 완화하는 효과를 기대할 수 있다ˮ라고 말했다.

관련 기술은 국내 및 해외에 특허 출원된 상태다. 연구팀은 원천기술의 파급력을 높이기 위해 2019년 KAIST 신경과학-인공지능 융합연구센터를 설립하고 구글 딥마인드, 마이크로소프트 연구소, IBM 연구소, 옥스퍼드 대학 등 다양한 해외 연구팀들과 함께 국제공동연구를 수행해 오고 있다.

Loading

30 1월 2024

[천체물리 – 우주(과학)] 日 달 착륙선 ‘슬림’ 동력 복구 후 운용 재개…첫 촬영 이미지 공개

[천체물리 – 우주(과학)] 日 달 착륙선 ‘슬림’ 동력 복구 후 운용 재개…첫 촬영 이미지 공개

日 달 착륙선 ‘슬림’ 동력 복구 후 운용 재개…첫 촬영 이미지 공개

입력

특수카메라 CAM-PX가 착륙 직후 촬영한 달 표면의 모습. JAXA 제공

20일 달 착륙에 성공한 일본 무인 달 착륙선 ‘슬림’이 운용을 재개했다. 일본 우주항공연구개발기구(JAXA)는 슬림이 착륙 직후 촬영한 이미지를 공개했다.

JAXA는 28일 소셜미디어 ‘X'(전 트위터) 계정을 통해 슬림의 운용을 재개했다고 밝혔다. 특수 카메라(CAM-PX)가 촬영한 달 표면 사진도 이어 공개했다.

앞서 슬림은 지난해 9월 일본 규슈 가고시마현에서 발사돼 지난해 12월 25일 달 궤도에 진입했다. 지난 20일 0시 20분경 달 착륙에 성공했다.

슬림은 착륙 당시 기체가 약간 기울어지면서 태양전지에 문제가 생겼다. 태양전지로 동력을 얻어야 하는 상황에서 임무에 차질이 생길 것으로 예상됐으나 상태가 복구된 것으로 알려졌다.

CAM-PX 등 특수 카메라를 장착한 소형 로봇 2개는 정상 분리돼 달 표면을 촬영한 이미지를 지상으로 보냈다.

슬림은 목표 지점에서 100m 미만 핀포인트 착륙을 시도했다. JAXA는 지난 25일 슬림이 목표 지점에서 55m 떨어진 곳에 착륙한 것으로 추정된다고 발표했다. 구체적인 분석을 마무리중인 것으로 알려졌다. 만약 정확하게 착륙했다면 일본은 원하는 목표 지점에 탐사선을 정확히 착륙시키는 ‘스마트 착륙 기술’을 확보하게 된다. 슬림 발사로 달 착륙에 성공한 일본은 미국, 구소련, 중국, 인도에 이어 세계 다섯 번째로 달 착륙에 성공한 국가가 됐다.

옮긴이 주 : 뒤집어진채로 착륙했다더니 사진도 뒤집힌 사진을 뒤집은 거네

Loading

28 1월 2024

[사회과학] [박진영의 사회심리학] 일은 진전 안되고 피곤하다면

[사회과학] [박진영의 사회심리학] 일은 진전 안되고 피곤하다면

[박진영의 사회심리학] 일은 진전 안되고 피곤하다면

입력

게티이미지뱅크 제공

하루 종일 뭔가를 하긴 했는데 어째서인지 아무 것도 이룬 게 없는 것 같은 불안감과 공허함이 찾아올 때가 있다. 주로 뚜렷한 계획을 세우지 않았거나 아니면 소위 딴 짓을 많이 하며 주의력을 허비했을 때 이런 느낌을 받곤 한다. 분명 시간은 시간대로 쓰고 몸도 마음도 지쳤는데 일은 진전이 없는 듯한 소모적인 상태를 어떻게 하면 막을 수 있을까.

흔히 자신이 일을 하는 과정을 들여다보면 진짜 집중해서 필요한 것들을 해내는 시간은 생각보다 길지 않음을 알 수 있다. 우선 일을 ‘시작’하기에 앞서 귀찮은 마음과 일이 복잡하고 양이 많아 보이는 데서 오는 두려움과 불안감, 초조함 등에 빠져 이들 감정을 다스리느라 잠깐 인터넷 좀 하고, 이메일 좀 체크 하고, 책상 정리 좀 하고 하자며 샛길로 빠진다.

드디어 마음을 잡고 시작하더라도 자꾸 핸드폰을 체크하고 싶어진다. 잠깐 누구랑 얘기하고 이것저것 하다 보면 시간은 의외로 빨리 흘러서 몸과 마음은 피곤함을 느끼고 휴식을 취해야 할 때가 온다. 이런 식으로 뭔가를 끊임없이 했지만 정작 꼭 해야 하는 일은 별로 해내지 못한 날들이 적지 않을 것이다. 일이 점점 미뤄지면서 불안감은 더욱 커져서 더더욱 시작할 엄두가 안 나는 악순환이 발생하기도 한다.

물론 하다가 막혀서 예상보다 진행이 느려지는 일도 반드시 생긴다. 이런 경우 천천히 돌아가게 되는 것은 어쩔 수 없지만 적어도 다른 덜 중요한 일에 주의를 빼앗기거나 부정적 정서를 조절하느라 빼앗기는 시간과 에너지를 줄일 수 있다면 같은 시간 안에도 좀 더 많은 것을 이룰 수 있을 것이다.

이를 돕기 위한 것으로 뽀모도로 테크닉 이라는 것이 있다. 프란체스코 시릴로라는 사람이 개발한 것으로 알려져 있는데 연구들에 의해서도 조금씩 주목받고 있는 시간 관리법이다. 일하는 시간을 30분 단위로 쪼개서 25분 동안 핸드폰이나 인터넷 등과 멀어져 일에만 집중하고 5분을 쉬는 식으로 4번을 반복하는 기법이다. 네 번을 채우고 나면 15분 정도의 휴식을 갖는다. 그리고 또 다시 25분 일 하고 5분 쉬는 싸이클을 반복한다.

마스트리히트대의 필리서터스 바이워 연구팀은 학생들을 대상으로 본인이 알아서 하고 싶은 만큼 오래 공부를 하고 알아서 쉬게 하거나 또는 미리 정해진 시간 동안 공부를 하고 역시 정해진 시간만큼 휴식을 취하도록 했다.

알아서 공부와 휴식 시간을 조절한 조건에서는 원하는 타이밍에 ‘휴식’ 버튼을 누르도록 했고 미리 정해진 시간 동안 공부하고 휴식을 취한 조건에서는 공부 시작 시간과 끝을 알리는 알람이 울리도록 했다.

그 결과 학생들에게 본인이 알아서 시간을 조절하게 했을 때보다 25분이든 12분이든 미리 정해진 시간 동안 열심히 일을 하고 이후 5분이든 3분이든 역시 미리 정해진 시간 동안 쉬게 했을 때 더 집중이 잘 되고 일을 시작하려고 시동 거는 데 걸리는 시간이 짧았으며, 피로도 또한 적은 것으로 나타났다.

잠깐 크로스핏이라는 운동을 했을 때도 정해진 짧은 시간 동안 정신 없이 몸을 움직이고 정해진 시간 동안 쉬는 것을 여러 번 반복하고 나니 나같은 저질 체력도 평소라면 엄두도 못 냈을 어마어마한 양의 운동을 해내서 놀라웠던 적이 있다. 어차피 인간의 주의력에는 한계가 있으므로 길고 느슨하게 무언가를 하는 것보다 짧은 시간 동안 최대한 집중력과 에너지를 끌어내는 방법이 더 실천 가능하고 효율도 좋은 것 같다.

그렇다고 매번 최대 출력으로 사는 것도 피곤한 일이므로 더 이상 질질 끌면 안 되는 일이 있을 때, 해야 하는데 할 엄두가 안 나는 일이 있을 때 이러한 기법을 써보면 좋을 것 같다.

Biwer, F., Wiradhany, W., oude Egbrink, M. G., & De Bruin, A. B. (2023). Understanding effort regulation: Comparing ‘Pomodoro’breaks and self‐regulated breaks. British Journal of Educational Psychology.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다

[출처] https://n.news.naver.com/article/584/0000025774?cds=news_media_pc

Loading

25 1월 2024

[비지니스 경영] 간부가 꼭 알아야 할 50가지 부하 지도 기술

[비지니스 경영] 간부가 꼭 알아야 할 50가지 부하 지도 기술

간부가 꼭 알아야 할 50가지 부하 지도 기술

경영조직이 살아있는 조직이 되려면 필요한 것이 상하위계질서 속에서 능률적으로 업무를 수행할 수 있게 훈련된 조직이 되어야한다. 그러나 인간관계가 어려운 만큼 경영에서도 사람을 다루는 방법이 가장 어렵다고들 하는데 의사소통을 원활히 하는 방법과 개인지향적인 젊은세대’를 읽는 법, 부리는 법등, 특별히 간부가 부하를 지도할 때 필요한 기술들을 소개한다.

제 1 장 부하와의 의사 소통을 원활히 하는 방법

1. 입 다물고 앉아 있는 시대는 벌써 지나갔다.
2. 현대의 부하는 상사의 뜻을 헤아리지 않는다고 생각하라.
3. 말 이외의 커뮤니케이션을 활용하자.
4. 말은 상사 쪽에서 먼저 걸어야 한다.
5. 대화의 센스를 연마하는 두 가지 힌트
6. 질문으로 부하의 현황을 관찰하는 법
7. 의사 소통이 잘 되지 않을 때의 유의 사항
8. 커뮤니케이션 10원칙
자기 쪽에서 먼저 말을 건다.
기꺼이 응한다.
선입관을 갖지 않도록 노력한다.
감정적이 되었을 때는 한 호흡 여유를 갖는다.
긍정적인 태도로 대한다.
이질적인 것을 받아들인다.
풍부한 표정을 짓도록 노력한다.
확인을 게을리 하지 않는다.
쉽게 체념하지 않는다.
자기의 특성을 살린다.

제 2 장 이것이 개인 지향적인 젊은 세대를 읽는 법·부리는 법
9. 젊은이, 정말 변했는가
10. 아는 척도 모르는 척도 하지 않는다.
11. 젊은이들의 말 뒤에 숨어 있는 것을 간파하라.
12. 피로가 남지 않는 분위기 조성이 포인트
13. 안내서를 활용하여 구체적으로 지도한다.
14. 계획 단계부터 시키면 젊은 사람도 의욕적이 된다.
15. 젊은 사람은 매사에 얕게·좁게 관여하려 한다.
16. 즐거움을 연출하는 두 가지 포인트
17. 두드러지게 않게, 아무렇지도 않게 젊은이들과의 접촉 비결
18. ‘젊은 사람들은 일하려는 열성이 없다’고 몰아 붙여서는 안된다.

제 3 장 육성법·교육법은 원리 원칙에 따라
19. ‘가르친다’와 ‘기른다’의 차이를 알자
20. 사람을 기를 때의 사고 방식
21. 잘 기르는 3가지 조건
끈기있게 꾸준히, 일을 통하여 사람을 기른다, 주의 깊게 관찰하고, 기억한다.

22. 사람을 기를 때의 금기 사항
자기 일에만, 당면한 일에 쫓기고 있거나, 부하를 이용하거나
23. 일을 통해서 부하를 육성한다.
24. 계획을 세워서 부하를 육성한다.
25. 분위기를 연출하여 부하를 육성한다.
26. 매사를 상세히 지시하여 부하를 육성한다.
27. 설명 기술을 마스터하고 부하를 육성한다.
알기 쉽게 : 내용을 정리, 아웃라인을 명시, 관계를 명확히,

28. 설명 기술을 마스터하고 부하를 육성한다.2
간결하게 : 단축시킨다. 짧은 센텐스, 한 마디로 말하는 습관
분명하게 : 이미지가 떠오르게

제 4 장 ‘칭찬하는 법’·’꾸짖는 법’ 이것이 포인트
29. ‘칭찬하는 법’·’꾸짖는 법과의 관계
30. 능숙한 칭찬자가 되기 위한 유의 사항
31. 칭찬하는 것을 알도록 칭찬한다.
32. 평범한 일을 칭찬한다.
33. 난처한 일을 도와주기 위해서 칭찬한다.
34. 칭찬하는 말 25가지
잘했어, 정말 잘했어, 대단히 솜씨군, 달라졌어, 훌륭해, 착실한 근무태도, 직장 분위기가 밝아져, 시원시원해, 따뜻한 맛이 있어, 역시 실력자야, 등등

35. 꾸짖는 방법·3가지 요령
36. 나쁜 점을 깨닫게 하는 방법
37. 지루한 꾸중은 금물
38. 젊은 부하를 질책할 때의 유의 사항
39. 꾸짖을 때는 필요한 연구를
40. 꾸짖는 말 25선

제 5 장 미래지향적인 상사의 조건
41. 높은 지위에 있을 때 평가를 이겨내라.
42. 생각하고 있는 것을 언명할 수 있도록
43. 확실한 행동력을 갖춘다.
44. 최종적인 책임을 져라.
45. 진정한 개성과 자폐적 개성을 분별하라.
46. 사회 규범의 중요성을 가르친다.
47. 숙고하는 여유를 가져라.
48. 멋을 아는 상사가 되라.
49. 변하지 않는 것과 변하는 것을 확실히 구분하자.
50. 부하에게도 배워야 할 것은 배워라.
– 김광준 –

 

Loading

24 1월 2024

[국어 국문학] 君子不論人之短[군자는 남의 단점을 논하지 않는다].

[국어 국문학] 君子不論人之短[군자는 남의 단점을 논하지 않는다].

君子不論人之短[군자는 남의 단점을 논하지 않는다].

  子貢曰 君子亦有惡乎?

子曰 有惡. 惡稱人之惡者,

惡居下流而訕上者, 惡勇而無禮者, 惡果敢而窒者

[자공왈 군자역유오호? 자왈 유오. 오칭인지악자,

오거하류이산상자, 오용이무례자, 오과감이질자].

자공이 여쭈었다. “군자도 미워하는 게 있습니까?”

공자께서 말씀하셨다. “미워하는 게 있지. 남의 나쁜

점을 들춰내는 것을 미워하고, 낮은 자리에 있으면서

윗사람을 誹謗[비방]하는 것을 미워하고, 용기는 있지만

無禮한 것을 미워하고, 果敢하지만 꽉 막힌 것을

미워한다.”

子曰 賜也, 亦有惡乎? 惡謠以爲知者, 惡不孫以爲勇者,

惡謁以爲直者

[자왈 사야, 역유오호? 오요이위지자, 오불손이위용자,

오알이위직자].

이번엔 공자가 물었다. “사야(자공)! 너도 미워하는 게 있느냐?”

자공은 “남의 생각을 알아내어 자기 생각처럼 내세우면서 智慧가

있다고 여기는 것을 미워하고, 不遜한 것을 가지고 용감하다

여기는 것을 미워하고, 남의 비밀을 캐내 攻擊하면서 正直하다

여기는 것을 미워합니다.” -論語 陽貨 篇[논어 양화 편].

다른 사람의 잘못된 점을 낱낱이 들춰내는 것, 윗사람을 誹謗하는,

그러나 절대로 그 앞에서는 하지 못하는 것, 그리고 勇敢하지만

無禮한 것, 果敢하지만 꽉 막힌 것…. 이런 것들을 미워하는 것은

예나 지금이나 변함없는 것 같다. 자공 역시 남의 意見이나

아이디어를 알아내곤 그것을 내 생각처럼 내세우는 것,

不遜을 勇氣 있는 것이라 여기고, 다른 사람의 비밀을 캐내어

攻擊하면서 마치 그런 일이 正直하다고 생각하는 사람들을

미워한다고 告白하고 있다.

情報化시대에 살면서 남의 一擧手一投足을 일일이 찾아내

세상에 알리는 할 일 없는 사람들이 많다. 또 아랫사람으로서

윗사람을 誹謗하면서 公·私를 莫論하고 사실이 아닌 말까지

지어내 사회를 어지럽히기도 한다. 또 禮儀가 缺如[결여]된

용기나 疏通不能인 果敢性은 자칫 사회를 不通의 세상으로

만들기 쉽다. 指導者의 리더십이 不足하면 예나 지금이나

이런 混亂[혼란]스러운 일이 발생하고 민심이 흉흉해진다.

어떤 組織에서도 이를 警戒해야 하지만, 지금 우리 社會와

政治가 여기에서 자유롭지 못한 것 같아 안타깝기만 하다.

정말 君子가 남의 잘못를 曰可 曰不하지 않는 세상은 오지

않을 것인지 그저 아쉽고 답답해서 하는 말이다…..

 [출처] https://m.cafe.daum.net/bsj5/LfO2/343?listURI=%2Fbsj5%2FLfO2

Loading

22 1월 2024

[인공지능 기술] 5가지 최고의 오픈 소스 LLM(2024년 XNUMX월)

[인공지능 기술] 5가지 최고의 오픈 소스 LLM(2024년 XNUMX월)

오픈 소스 LLM

빠르게 진화하는 인공 지능(AI) 세계에서 LLM(Large Language Models)은 혁신을 주도하고 기술과 상호 작용하는 방식을 재구성하는 초석으로 부상했습니다.

이러한 모델이 점점 더 정교해짐에 따라 이에 대한 액세스를 민주화하는 데 점점 더 중점을 두고 있습니다. 특히 오픈 소스 모델은 이러한 민주화에서 중추적인 역할을 하며 연구원, 개발자 및 애호가 모두에게 복잡성을 깊이 탐구하고 특정 작업에 맞게 미세 조정하거나 기반을 구축할 수 있는 기회를 제공합니다.

이 블로그에서는 AI 커뮤니티에서 파장을 일으키고 있으며 각각 고유한 강점과 기능을 테이블에 제공하는 최고의 오픈 소스 LLM 중 일부를 살펴보겠습니다.

1. 라마 2

 
Llama 2 알아보기: 조립을 시작하는 데 필요한 모든 것
 
 

Meta의 Llama 2는 AI 모델 라인업에 획기적인 추가 기능입니다. 이것은 단지 다른 모델이 아닙니다. 다양한 최신 응용 프로그램에 연료를 공급하도록 설계되었습니다. Llama 2의 훈련 데이터는 방대하고 다양하여 이전 모델에 비해 크게 발전했습니다. 이러한 교육의 다양성은 Llama 2가 단순한 점진적인 개선이 아니라 AI 기반 상호 작용의 미래를 향한 기념비적인 단계임을 보장합니다.

Meta와 Microsoft 간의 협업은 Llama 2의 지평을 넓혔습니다. 오픈 소스 모델은 이제 Azure 및 Windows와 같은 플랫폼에서 지원되며, 개발자와 조직에 생성적 AI 기반 경험을 생성할 수 있는 도구를 제공하는 것을 목표로 합니다. 이 파트너십은 모두가 AI에 보다 쉽게 ​​접근하고 개방할 수 있도록 하기 위한 두 회사의 헌신을 강조합니다.

Llama 2는 원래 Llama 모델의 후속 제품이 아닙니다. 이는 챗봇 분야의 패러다임 전환을 나타냅니다. 첫 번째 Llama 모델은 텍스트와 코드를 생성하는 데 있어 혁신적이었지만 오용을 방지하기 위해 가용성이 제한되었습니다. 반면에 Llama 2는 더 많은 청중에게 다가갈 예정입니다. AWS, Azure, Hugging Face의 AI 모델 호스팅 플랫폼과 같은 플랫폼에 최적화되어 있습니다. 또한 Meta와 Microsoft의 협력을 통해 Llama 2는 Windows뿐만 아니라 Qualcomm의 Snapdragon 시스템 온 칩으로 구동되는 장치에서도 명성을 떨칠 준비가 되어 있습니다.

안전은 Llama 2 설계의 핵심입니다. 때때로 오해의 소지가 있거나 유해한 콘텐츠를 생성하는 GPT와 같은 초기 대규모 언어 모델이 직면한 문제를 인식하여 Meta는 Llama 2의 안정성을 보장하기 위해 광범위한 조치를 취했습니다. 이 모델은 ‘환각’, 잘못된 정보 및 편견을 최소화하기 위해 엄격한 훈련을 거쳤습니다.

LLaMa 2의 주요 기능:

  • 다양한 학습 데이터: Llama 2의 교육 데이터는 광범위하고 다양하여 포괄적인 이해와 성능을 보장합니다.
  • 마이크로소프트와의 협업: Llama 2는 Azure 및 Windows와 같은 플랫폼에서 지원되므로 적용 범위가 확장됩니다.
  • 가용성: 이전 버전과 달리 Llama 2는 더 많은 사용자가 사용할 수 있으며 여러 플랫폼에서 미세 조정할 준비가 되어 있습니다.
  • 안전 중심 설계: Meta는 안전을 강조하여 Llama 2가 유해한 출력을 최소화하면서 정확하고 신뢰할 수 있는 결과를 생성하도록 합니다.
  • 최적화된 버전: Llama 2는 Llama 2와 Llama 2-Chat의 두 가지 주요 버전으로 제공되며 후자는 양방향 대화를 위해 특별히 설계되었습니다. 이러한 버전의 복잡성은 7억에서 70억 매개변수에 이릅니다.
  • 향상된 교육: Llama 2는 원래 Llama의 1.4조 XNUMX천억 개 토큰에서 크게 증가한 XNUMX만 토큰으로 훈련되었습니다.

2. 

 
오픈소스 Bloom AI 소개
 
 

2022년, 70개국 이상 자원봉사자와 Hugging Face 전문가가 참여한 글로벌 협업 끝에 BLOOM 프로젝트가 공개되었습니다. XNUMX년에 걸친 계획을 통해 만들어진 이 LLM(대형 언어 모델)은 자동 회귀 텍스트 생성을 위해 설계되었으며 주어진 텍스트 프롬프트를 확장할 수 있습니다. 상당한 계산 능력을 활용하여 방대한 텍스트 데이터 모음을 학습했습니다.

BLOOM의 데뷔는 생성 AI 기술의 접근성을 높이는 데 있어 중요한 단계였습니다. 오픈 소스 LLM으로서 176억 개의 매개변수를 자랑하며 동급에서 가장 강력한 LLM 중 하나입니다. BLOOM은 46개 언어와 13개 프로그래밍 언어에 걸쳐 일관되고 정확한 텍스트를 생성하는 능력을 갖추고 있습니다.

이 프로젝트는 투명성을 강조하여 소스 코드와 훈련 데이터에 대한 대중의 접근을 허용합니다. 이러한 개방성은 모델의 지속적인 검토, 활용 및 향상을 유도합니다.

Hugging Face 플랫폼을 통해 무료로 액세스할 수 있는 BLOOM은 AI 분야의 협력적 혁신을 보여주는 증거입니다.

Bloom의 주요 기능:

  • 다국어 기능 : BLOOM은 46개 언어와 13개 프로그래밍 언어로 텍스트를 생성하는 데 능숙하여 광범위한 언어 범위를 보여줍니다.
  • 오픈 소스 액세스: 모델의 소스 코드와 교육 데이터는 공개적으로 제공되므로 투명성과 협업 개선이 촉진됩니다.
  • 자동회귀 텍스트 생성: 주어진 프롬프트에서 텍스트를 이어가도록 설계된 BLOOM은 텍스트 시퀀스를 확장하고 완성하는 데 탁월합니다.
  • 대규모 매개변수 개수: 176억 개의 매개변수를 갖춘 BLOOM은 현존하는 가장 강력한 오픈 소스 LLM 중 하나입니다.
  • 글로벌 협업: 70개 이상 국가의 자원봉사자와 Hugging Face 연구자들의 기여로 XNUMX년간의 프로젝트를 통해 개발되었습니다.
  • 무료 접근성: 사용자는 Hugging Face 생태계를 통해 BLOOM에 무료로 액세스하고 활용할 수 있어 AI 분야의 민주화가 강화됩니다.
  • 산업 규모 교육: 이 모델은 상당한 계산 리소스를 사용하여 방대한 양의 텍스트 데이터에 대해 학습되어 강력한 성능을 보장합니다.

3. MPT-7B

 
MPT-7B – 최초로 상업적으로 사용 가능한 완전히 훈련된 LLaMA 스타일 모델
 
 

MosaicML Foundations는 최신 오픈 소스 LLM인 MPT-7B를 도입하여 이 공간에 크게 기여했습니다. MosaicML Pretrained Transformer의 약어인 MPT-7B는 GPT 스타일의 디코더 전용 변환기 모델입니다. 이 모델은 성능 최적화된 레이어 구현 및 더 큰 교육 안정성을 보장하는 아키텍처 변경을 포함하여 몇 가지 향상된 기능을 자랑합니다.

MPT-7B의 뛰어난 기능은 1조 개의 텍스트 및 코드 토큰으로 구성된 광범위한 데이터 세트에 대한 교육입니다. 이 엄격한 교육은 9.5일 동안 MosaicML 플랫폼에서 실행되었습니다.

MPT-7B의 오픈 소스 특성은 상용 애플리케이션을 위한 귀중한 도구로 자리매김합니다. 비즈니스 및 조직의 예측 분석 및 의사 결정 프로세스에 상당한 영향을 미칠 가능성이 있습니다.

기본 모델 외에도 MosaicML Foundations는 짧은 형식의 지침을 따르는 MPT-7B-Instruct, 대화 생성을 위한 MPT-7B-Chat 및 MPT-7B-StoryWriter-65k+와 같은 특정 작업에 맞춤화된 특수 모델도 출시하고 있습니다. 긴 형식의 스토리 생성을 위해.

MPT-7B의 개발 여정은 MosaicML 팀이 데이터 준비에서 배포까지 모든 단계를 몇 주 내에 관리하는 포괄적인 과정이었습니다. 데이터는 다양한 리포지토리에서 제공되었으며 팀은 EleutherAI의 GPT-NeoX 및 20B 토크나이저와 같은 도구를 활용하여 다양하고 포괄적인 교육 믹스를 보장했습니다.

MPT-7B의 주요 기능 개요:

  • 상업용 라이선스: MPT-7B는 상업적 사용이 허가되어 비즈니스에 귀중한 자산이 됩니다.
  • 광범위한 교육 데이터: 이 모델은 1조 토큰의 방대한 데이터 세트에 대한 교육을 자랑합니다.
  • 긴 입력 처리: MPT-7B는 손상 없이 매우 긴 입력을 처리하도록 설계되었습니다.
  • 속도와 효율성: 이 모델은 신속한 교육 및 추론에 최적화되어 시기 적절한 결과를 보장합니다.
  • 오픈 소스 코드: MPT-7B는 효율적인 오픈 소스 교육 코드와 함께 제공되어 투명성과 사용 편의성을 높입니다.
  • 비교 우수성: MPT-7B는 LLaMA-7B와 일치하는 품질로 20B-7B 범위의 다른 오픈 소스 모델보다 우수함을 입증했습니다.

4. 

 
FALCON-180B를 즉시 배포하세요! 새로운 #1 오픈 소스 AI 모델
 
 

Falcon LLM은 LLM 계층 구조의 최상위로 빠르게 올라간 모델입니다. Falcon LLM, 특히 Falcon-40B는 40억 개의 매개변수를 갖춘 기본 LLM이며 인상적인 3조 개의 토큰에 대해 교육을 받았습니다. 이는 자동 회귀 디코더 전용 모델로 작동합니다. 즉, 본질적으로 이전 토큰을 기반으로 시퀀스에서 후속 토큰을 예측합니다. 이 아키텍처는 GPT 모델을 연상시킵니다. 특히, Falcon의 아키텍처는 GPT-75보다 우수한 성능을 보여주었고, 훈련 컴퓨팅 예산의 XNUMX%만으로 이 위업을 달성했으며 추론 중에 훨씬 적은 컴퓨팅이 필요합니다.

Technology Innovation Institute의 팀은 Falcon을 개발하는 동안 데이터 품질에 중점을 두었습니다. 교육 데이터 품질에 대한 LLM의 민감도를 인식하여 수만 개의 CPU 코어로 확장되는 데이터 파이프라인을 구성했습니다. 이를 통해 광범위한 필터링 및 중복 제거 프로세스를 통해 웹에서 고품질 콘텐츠를 신속하게 처리하고 추출할 수 있었습니다.

TII는 Falcon-40B 외에도 7억 개의 매개변수를 보유하고 7조 1,500억 개의 토큰에 대해 훈련된 Falcon-40B를 비롯한 다른 버전도 도입했습니다. 특정 작업에 맞게 조정된 Falcon-7B-Instruct 및 Falcon-XNUMXB-Instruct와 같은 특수 모델도 있습니다.

훈련 Falcon-40B는 광범위한 과정이었습니다. 이 모델은 TII가 구축한 대규모 영어 웹 데이터 세트인 RefinedWeb 데이터 세트에서 훈련되었습니다. 이 데이터 세트는 CommonCrawl 위에 구축되었으며 품질을 보장하기 위해 엄격한 필터링을 거쳤습니다. 모델이 준비되면 EAI Harness, HELM 및 BigBench를 포함한 여러 오픈 소스 벤치마크에 대해 검증되었습니다.

Falcon LLM의 주요 기능 개요:

  • 광범위한 매개변수: Falcon-40B는 40억 개의 매개변수를 갖추고 있어 포괄적인 학습 및 성능을 보장합니다.
  • 자기회귀 디코더 전용 모델: 이 아키텍처를 통해 Falcon은 GPT 모델과 유사하게 이전 토큰을 기반으로 후속 토큰을 예측할 수 있습니다.
  • 우수한 성능: Falcon은 교육 컴퓨팅 예산의 3%만 활용하면서 GPT-75보다 성능이 뛰어납니다.
  • 고품질 데이터 파이프라인: TII의 데이터 파이프라인은 웹에서 모델 교육에 중요한 고품질 콘텐츠 추출을 보장합니다.
  • 다양한 모델: Falcon-40B 외에도 TII는 Falcon-7B 및 Falcon-40B-Instruct 및 Falcon-7B-Instruct와 같은 특수 모델을 제공합니다.
  • 오픈 소스 가용성: Falcon LLM은 오픈 소스로 제공되어 AI 도메인에서 접근성과 포괄성을 촉진합니다.

5. 비쿠나-13B

 
로컬 컴퓨터에서 Vicuna-13B를 실행하세요 ???? | 튜토리얼(GPU)
 
 

LMSYS ORG는 Vicuna-13B를 도입하여 오픈 소스 LLM 영역에서 중요한 족적을 남겼습니다. 이 오픈 소스 챗봇은 ShareGPT에서 가져온 사용자 공유 대화에서 LLaMA를 미세 조정하여 세심하게 훈련되었습니다. GPT-4가 심사위원으로 참여한 예비 평가에서 Vicuna-13B는 OpenAI ChatGPT 및 Google Bard와 같은 유명한 모델의 90% 이상의 품질을 달성하는 것으로 나타났습니다.

인상적으로, Vicuna-13B는 사례의 90% 이상에서 LLaMA 및 Stanford Alpaca와 같은 다른 주목할만한 모델을 능가합니다. Vicuna-13B에 대한 전체 교육 프로세스는 약 $300의 비용으로 실행되었습니다. 기능 탐색에 관심이 있는 사람들을 위해 코드, 가중치 및 온라인 데모가 비상업적 목적으로 공개되었습니다.

Vicuna-13B 모델은 70K 사용자 공유 ChatGPT 대화로 미세 조정되어 보다 상세하고 잘 구성된 응답을 생성할 수 있습니다. 이러한 응답의 품질은 ChatGPT와 비슷합니다. 그러나 챗봇을 평가하는 것은 복잡한 작업입니다. GPT-4가 발전함에 따라 벤치마크 생성 및 성능 평가를 위한 자동화된 평가 프레임워크 역할을 할 가능성에 대한 호기심이 커지고 있습니다. 초기 결과는 GPT-4가 챗봇 응답을 비교할 때 일관된 순위와 자세한 평가를 생성할 수 있음을 시사합니다. GPT-4를 기반으로 한 예비 평가에서는 Vicuna가 Bard/ChatGPT와 같은 모델의 90% 기능을 달성하는 것으로 나타났습니다.

Vicuna-13B의 주요 특징 개요:

  • 오픈 소스 특성: Vicuna-13B는 공개 액세스가 가능하여 투명성과 커뮤니티 참여를 촉진합니다.
  • 광범위한 교육 데이터: 이 모델은 70개의 사용자 공유 대화에 대해 학습되어 다양한 상호 작용에 대한 포괄적인 이해를 보장합니다.
  • 경쟁력 있는 성능: Vicuna-13B의 성능은 ChatGPT 및 Google Bard와 같은 업계 리더와 동등합니다.
  • 비용 효율적인 교육: Vicuna-13B에 대한 전체 교육 프로세스는 약 $300의 저렴한 비용으로 실행되었습니다.
  • LLaMA 미세 조정: 이 모델은 LLaMA에서 미세 조정되어 향상된 성능과 응답 품질을 보장합니다.
  • 온라인 데모 가용성: 사용자는 대화식 온라인 데모를 통해 Vicuna-13B의 기능을 테스트하고 경험할 수 있습니다.

대규모 언어 모델의 확장 영역

대규모 언어 모델의 영역은 방대하고 지속적으로 확장되며 새로운 모델이 나올 때마다 가능성의 한계를 뛰어넘습니다. 이 블로그에서 논의된 LLM의 오픈 소스 특성은 AI 커뮤니티의 협력 정신을 보여줄 뿐만 아니라 미래 혁신을 위한 길을 열어줍니다.

Vicuna의 인상적인 챗봇 기능에서 Falcon의 우수한 성능 메트릭에 이르기까지 이러한 모델은 현재 LLM 기술의 정점을 나타냅니다. 이 분야의 급속한 발전을 계속 목격하면서 오픈 소스 모델이 AI의 미래를 형성하는 데 중요한 역할을 할 것이 분명합니다.

당신이 노련한 연구원이든, 신진 AI 애호가이든, 이러한 모델의 잠재력에 대해 궁금한 사람이든, 그들이 제공하는 방대한 가능성에 뛰어들어 탐구하기에 더 좋은 시간은 없습니다.

Alex McFarland는 인공 지능의 최신 개발을 다루는 브라질 기반 작가입니다. 그는 전 세계 최고의 AI 회사 및 출판물과 함께 일했습니다.

unite.AI의 창립 파트너이자 포브스 기술 위원회, 앙투안은 미래파 예술가 AI와 로봇공학의 미래에 열정을 갖고 있는 사람입니다.

그는 또한 증권.io 투자 웹사이트, 제너레이티브 AI 플랫폼 이미지.ai, & 그는 현재 출시 작업 중입니다. 천재.ai 프롬프트를 하위 작업으로 나누어 자율 에이전트를 구성하고 배포할 수 있는 기능을 사용자에게 제공하는 플랫폼입니다.

[출처] https://www.unite.ai/ko/%EC%B5%9C%EA%B3%A0%EC%9D%98-%EC%98%A4%ED%94%88-%EC%86%8C%EC%8A%A4-LLM/

Loading

17 1월 2024

[데이터분석 & 데이터 사이언스] 데이터에 관한 꼭 알아야 할 오해와 진실 12가지

[데이터분석 & 데이터 사이언스] 데이터에 관한 꼭 알아야 할 오해와 진실 12가지

데이터에 관한 꼭 알아야 할 오해와 진실 12가지
 
 
1. 양질의 데이터 100개가 이것저것 섞인 데이터 100만 개보다 낫다.
 
 
2. 데이터 분석은 어쨌든 모집단의 일부를 갖고서 분석하는 것으로 아무리 양질의 데이터이고,
많은 양이 있다 하더라도 결국은 진실에 가까운 추정치일 뿐이다.
 
 
3. 데이터 없이 분석결과를 얻을 수 있다면 그것이 최선이다.
 
 
4. 데이터 분석을 할 때 자주 하는 실수 중 하나가 ‘나의 데이터’  ‘남의 데이터’를 구분하지 못하는 것이다.
 
 
5. ‘당선 확률’은 당선의 미래를 예측하는 것이 아니라 미래의 오차 범위를 말하는 것이다.
그래서 “미래를 정확히 예측한다”는 말을 해서는 안 된다
 
 
6. 데이터는 과거의 발자취일 뿐이다. 예측할 수 없다.
빅데이터를 분석한다는 것은 예측을 하기 위한 것이 아니라 패턴을 찾기 위한 것이다.
 
 
7. 분석에만 치중하다 보면 상식적인 판단이 헷갈려 엉뚱한 진단을 하는 수가 있다.
그래서 풀고자 하는 문제에 대한 통찰을 선행하는 것이 중요하다.
통찰은 결국 해당 문제 영역의 경험에서 나온다.
 
 
8. 데이터 리터러시 역량을 키운다는 것은
해결하려는 문제의 주어진 상황이나 인과관계를 논리적으로 추론할 수 있는 소양을 갖추는 것을 말한다.
 
 
9. 지금의 빅데이터가 몇 년 뒤에는 일반 데이터가 될 수도 있다.
그러니 빅데이터가 원가 대단한 것이라고 착각해서는 안 된다.
 
 
10. 인공지능이 표본화된 데이터를 학습한 만큼, 인공지능이 생성한 답이 반드시 진리일 수는 없다.
갈릴레오 시대의 인공지능이라면 “하늘은 돈다”라고 말할 것이다.
 
 
11. 데이터 분석이 보장하는 것은 답의 진실성이 아니라, 데이터의 대표성임을 잊지 말자.
 
 
12. 문제의 본질을 읽는 것, 그래서 문제를 풀기 위해 어떤 도구를 쓸 지 결정하는 능력, 그것이 곧 인문학적 능력이다.
 
 

Loading