19 4월 2025

[사회과학][박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

[사회과학][박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

[박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

입력
코소보 전쟁. 연합뉴스 제공

코소보 전쟁. 연합뉴스 제공

세계사를 들여다보면 오랜 세월 동안 서로 다른 종교나 민족 등을 이유로 갈등을 빚어온 지역들이 있다. 코소보를 둘러싸고 세르비아인들과 알바니아인이 충돌해 온 것도 대표적인 사례다. 한때는 이 지역의 긴장감이 완화되는 것 같기도 했지만 여전히 갈등의 고조와 완화가 반복되며 양쪽에 많은 상처를 내고 있다.

한국 역시 이웃 나라 일본, 중국과 오랜 시간 반목해 온 역사가 있고 식민지 시절을 겪은 상처가 아직도 남아 있기에 역사적 비극이 반복되는 것이 남의 이야기 같지만은 않다.

이슬람 보린카 그로닝겐대 연구팀은 855명의 알바니아인들을 대상으로 다음과 같은 실험을 했다. 한 그룹의 사람들에게는 평범한 세르비아인들이 과거에 자신의 국가가 저지른 잘못에 대해 사과하는 메시지를 보게 했고 다른 그룹의 사람들에게는 세르비아 정부 관계자가 사과하는 메시지를 보게 했다. 또 다른 그룹의 사람들에게는 사과의 메시지가 담기지 않은 소식을 듣게 했다.

그 결과 보통의 세르비아인들이 과거의 잘못에 대해 후회를 내비치고 사과의 마음을 전달하는 내용의 메시지에 사람들의 마음이 가장 크게 움직인 것으로 나타났다. 정부 관계자가 사과했을 때보다 평범한 사람들이 후회의 마음을 내비쳤을 때 알바니아 사람들은 더 세르비아와 평화로운 관계를 유지할 의향을 크게 내비쳤다.

또한 정부 관계자보다 보통의 세르비아인들에게 사과를 받았을 때 세르비아인들도 자신들과 비슷한 ‘인간’이라는 인식이 더 높아진 것으로 나타났다. 갈등을 빚고 있는 외집단을 향해 그들은 인간이 아니라거나 짐승, 바퀴벌레 같은 존재라며 해당 집단에 속한 사람들의 인격을 깎아 내리는 ‘비인간화’가 흔히 나타난다.

이러한 비인간화는 인간이 다른 인간을 향해 학살 같은 일도 서슴지 않고 하게 만드는 중요한 요인이다. 세르비아 일반인들로부터 사과를 받았을 때 알바니아인들은 상대를 더 ‘인간화’ 해서 바라본 것으로 나타났다. 나아가 이러한 인간화가 우리 집단이 타 집단보다 더 큰 피해를 봤다고 하는 ‘경쟁적 피해의식’ 또한 줄인 것으로 나타났다.

국가나 민족 단위의 사람들이 겪은 과거의 트라우마에 대해 시간이 지났으니 그만 잊으라고 이야기하는 사람들을 종종 본다. 과거의 상처가 지금까지도 썩은 냄새를 풍기고 있는데도 마치 과거와 현재 사이에 아무런 관계가 없는 것처럼 말하는 것은 별로 설득력이 없다.

개인적인 상처도 그렇지만 개인과 집단 사이, 집단과 집단 사이의 문제들도 최소한의 ‘종결’이 필요하다. 어떤 것이 잘못이었고 지금이라도 이를 바로잡기 위해 무엇을 해야 하는지에 관한 대화가 계속되어야 하는 이유다.

이미 끝났는데 자꾸 얘기하는 것이 아니라 적어도 누군가에게는 아직 이 문제가 끝나지 않았기 때문에 계속 얘기하는 것이고 계속 얘기해야 조금이라도 더 모두에게 이로운 미래로 나아가는 것이 가능해진다.

함께 더 나은 미래로 가기 위한 성찰의 시도를 거부하는 사람들이 있다면 아마도 생각하기 귀찮아서, 심각한 분위기가 싫어서, 나의 고통은 위로받지 못했는데 남의 고통이 위로 받는 걸 보는 게 배 아파서, 그냥 현상 유지하는 것이 좋아서, 내 기분이 편안한 것이 가장 중요해서, 남이 고통받든 말든 나만 잘 살면 돼서, 또는 찔리는 것이 많아서 그런 것은 아닐까 생각해 본다.

하지만 결국 서로 영향을 주고 받을 수 밖에 없는 사회에서 ‘나만 잘 사는 것’이란 애초에 불가능한 법이다. 누군가의 고통이 쉽게 잊혀지는 사회에서는 나의 고통 또한 가볍게 여겨질 수 밖에 없음을 기억해보자.

Borinca, I., Koc, Y., & Mustafa, S. (2024). Fostering social cohesion in post‐war societies: The power of normative apologies in reducing competitive victimhood and enhancing reconciliation. European Journal of Social Psychology. https://doi.org/10.1002/ejsp.3116

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

Loading

19 4월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 093.You’re My Everything — Santa Esmeralda (유아 마이 에브리씽:산타 에스메랄다) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 093.You’re My Everything — Santa Esmeralda (유아 마이 에브리씽:산타 에스메랄다) [듣기/가사/해석]

[팝송 가사/한글 번역] You’re My Everything (그대는 나의 모든 것) – Santa Esmeralda (산타 에스메랄다) (1977년)

https://youtu.be/Hr4XH-lPRdc

 
 

You’re my everything

그대는 나의 모든 것

The sun that shines above you

그대 위에 빛나는 태양이

Makes the bluebird sing

파랑새를 노래하게 해

The stars that twinkle way up in the sky

저 하늘에 빛나는 반짝이는 별들이

Tell me I’m in love

내가 사랑에 빠졌다고 말해

When I kiss your lips

그대 입술에 키스할 때

I feel the rolling thunder to my fingertips

내 손끝에서 천둥 같은 전율이 일어나

And all the while my head is in a spin

내 머리는 빙빙 돌고

Deep within, I’m in love

깊숙이, 난 사랑에 빠진 거지

You’re my everything

그대는 나의 모든 것

And nothing really matters but the love you bring

그대 사랑이 가져다주는 것보다 중요한 것은 없어

You’re my everything

그대는 나의 모든 것

To see you in the morning with those big brown eyes

큰 갈색 눈을 가진 그대를 아침에 봐

You’re my everything

그대는 나의 모든 것

Forever and a day I need you close to me

영원히 그리고 매일 난 그대가 내 곁에 있어야 해

You’re my everything

그대는 나의 모든 것

You’ll never have to worry, never fear, for I am near

그댄 결코 걱정하거나 두려워할 필요 없어, 내가 곁에 있으니

For my everything

내 모든 것을 위해

I live upon the land and see the sky above

난 땅에 살며 저 하늘을 바라봐

I swim within her oceans sweet and warm

난 그대의 달콤하고 따뜻한 바다에서 헤엄쳐

There’s no storm, my love

폭풍도 없어, 내 사랑

You’re my everything

그대는 나의 모든 것

No, nothing really matters but the love you bring

그대 사랑이 가져다주는 것보다 중요한 것은 없어

You’re my everything

그대는 나의 모든 것

To see you in the morning with those big brown eyes

큰 갈색 눈을 가진 그대를 아침에 봐

You’re my everything

그대는 나의 모든 것

Forever and a day I need you close to me

영원히 그리고 매일 난 그대가 내 곁에 있어야 해

You’re my everything

그대는 나의 모든 것

You’ll never have to worry, never fear, for I am near

그댄 결코 걱정하거나 두려워할 필요 없어, 내가 곁에 있으니

When I hold you tight

내가 그대를 꽉 안을 때면

There’s nothing that can harm you in the lonely night

외로운 밤 그대를 힘들게 하는 건 아무것도 없어

I’ll come to you and keep you safe and warm

그대에게 다가가 안전하고 따뜻하게 지켜줄 거야

It’s so strong, my love

정말 강해, 내 사랑

When I kiss your lips

그대 입술에 키스할 때

I feel the rolling thunder to my fingertips

내 손끝에서 천둥 같은 전율이 일어나

And all the while my head is in a spin

내 머리는 빙빙 돌고

Deep within, I’m in love

깊숙이, 난 사랑에 빠진 거지

[출처] https://honephil.tistory.com/1851?category=354279

Loading

19 4월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 092.The Water Is Wide — Karla Bonoff (디 워터 이즈 와이드 : 칼라 보노프) [듣기/가사/해석] 바다가 너무 넓어

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 092.The Water Is Wide — Karla Bonoff (디 워터 이즈 와이드 : 칼라 보노프) [듣기/가사/해석] 바다가 너무 넓어

[올드팝송 추천] Karla Bonoff – The Water Is Wide 가사해석 [영화 순정 OST] 칼라보노프

음악/Old Pop(올드팝송)

추억의 올드팝송 [Old Pop 1970년대]

Karla Bonoff – The Water Is Wide

https://youtu.be/MHOCi74Wz0M

[Karla Bonoff – The water is wide with Lyrics 재생반복]

https://youtu.be/8e_xYuzn9Vg

 

Karla Bonoff – The Water Is Wide

칼라 보노프 – 더 워터 이즈 와이드

가사[Song Lyrics] / 가사번역 / 가사해석

The water is wide I cannot cross over

바다가 넓어서 나는 건널 수가 없어요.

and neither have the wings to fly

그리고 난 날수 있는 날개도 없어요.

give me a boat that can carry two

두명을 옮길 수 있는 보트를 주세요.

and we both shall row,1 my true love and I

나의사랑과 내가 함께 노를 저을 거예요.

Oh, love is gentle and love is kind

오, 사랑은 온화하고 사랑은 다정하죠.

The sweetest flower when first it’s new

처음 꽃피울 때는 가장 향기로운 꽃이지만

But love grows old and waxes cold

사랑도 나이들고 차갑게 식어버리다가

and fades away like morning dew2

아침이슬처럼 사라져 버리네요.

There is a ship and she sails to sea

배가 있고, 그 배는 바다로 항해해요.

She’s loaded deep as deep can be

배에는 선적할 수 있을 만큼 짐이 깊이(가득) 실렸어요.

But not as deep as the love I’m in

내가 빠진 사랑만큼 깊지는 않아요.

I know not how I sink or swim

내가 가라앉을지 수영할지 모르겠어요.

The water is wide I cannot cross over

바다가 넓어서 나는 건널 수가 없어요.

and neither have the wings to fly

그리고 난 날수 있는 날개도 없어요.

give me a boat that can carry two

두명을 옮길 수 있는 보트를 주세요.

and we both shall row, my true love and I

나의사랑과 내가 함께 노를 저을 거예요.

※ 이런표현 어때요?

1.

가사 : and we both shall row my true love and I

번역기 : 그리고 우리 둘 다 내 진실한 사랑을 노를 젓게 될 것이다.

해석 : 나의사랑과 내가 함께 노를 저을 거예요.

* shall : 조동사로 1.’ ~할것이다’ 라는 미래표현이나 의지를 나타냅니다. 미국에서는 Will 조동사로 대부분 사용하고 있어 현대에는 거의 사용하고 있지 않습니다. 2. ~하는거 어때? 로 제안할때 사용합니다. 격식을 갖춘표현으로 시나 고전문학에서 자주 볼수 있는데, 표현의 느낌이 약간 옛스럽다고 할수 있겠네요. 영국에서는 아직 사용되고 있는 표현입니다.

‘shall’은 ‘I’나 ‘we’가 주어로 올때만 사용가능합니다.

* 예문

1. This time next week I shall be in Korea. (다음주 이때쯤 난 한국에 있겠구료.)

2. We shan’t be gone long.(우리가 오래 떠나 있지는 않을 것이오.)

3. I shall not die forever! (나 영원히 죽지 않으리오)

4. Shall I send you the book? (그 책을 보내드릴까요?)

5. What shall we do this weekend?(우리 이번주말 뭐할까요?)

6. Let’s look at it again, Shall we?(그거 다시 한번 볼까요?)

7. Shall we dance?(우리 춤출래요?)

※ 노래정보

앨범커버 – Restless Night

[앨범커버 – Restless Nights]

1979년 발표한 Karla Bonoff 두번째 앨범 <Restless Nights>의 9번재 트랙으로 수록되어 있습니다. <The Water Is Wide>는 17세기부터 불린 스코틀랜드 민요 <O Waly Waly>를 현대적인 가사로 편곡하고 가사는 1906년 민족부흥 창시자인 ‘세일 샤프(Sacil Sharp)가 영국 남부의 여러 구전 출처에 통합하여 <Folk Songs From Somerset>에서 노래로 발표한것이 지금까지 불리고 있다고 합니다.

많은 가수들에 의해 커버되었는데 칼라 보노프는 <Thirtysomething>이라는 1987년부터 ABC에서 방송된 미국 드라마 TV시리즈에 포함된 버전전으을 1991년 녹화하고 2006년 미국 어드밴쳐 TV시리즈 <Alias>의 5번째 시즌인 <Solo>의 방영을 마무리하면서 사용되면서 대중들에게 알려지게 되었습니다.

국내에는 1992년 홍승연 극본, 최재성, 고현정 주연의 SBS드라마 ‘두려움 없는 사랑’에 삽입되고 광고나 여러 프로그램에서 배경음악으로 사용되면서 알려지게 되었습니다.

2016년 2월 24일 개봉한 이은희 감독의 작품 영화 순정 OST에 삽입되었습니다.

▶ 앨범명 : Restless Nights

▶ 발매일 : 1979년 9월

▶ 레이블 : Columbia Records

▶ 장르 : Pop rock, Easy listening

[Karla Bonoff – The water is wide]

[Karla Bonoff – The water is wide – 영화 순정 OST]

row : 줄. v.노를 젓다. 노를저어 ~를 태워주다. / We rowed around the island. (우리는 노를 저어 섬을 한바퀴 돌었다.) The fisherman rowed us back to the shore (어부가 노를 저어 우리를 다시 해변으로 데려다 주었다.) [본문으로]

dew [duː] 이슬 [본문으로]

[출처] https://tncountry.tistory.com/246

Loading

15 4월 2025

[인공지능 기술] Replit Agent 사용법 – AI 기반 코딩 도구로 쉽게 개발하기

[인공지능 기술] Replit Agent 사용법 – AI 기반 코딩 도구로 쉽게 개발하기

Replit Agent 사용법 – AI 기반 코딩 도구로 쉽게 개발하기

 · 7 min read
프롬프트해커 대니

다양한 분야에서 AI를 할용하는 ChatGPT전문가. 스타트업 창업, 개발자, 구글 SEO 성공 경험을 바탕으로 실용적인 AI사례를 발견합니다.

프로그래밍을 처음 접하는 분들에게 개발 환경 설정은 큰 걸림돌이 될 수 있습니다. 하지만 Replit라는 온라인 통합개발환경(IDE)을 사용하면 별도의 설치 없이 브라우저에서 바로 코딩을 시작할 수 있습니다. 최근에는 AI 기반 코딩 도우미 Replit Agent까지 추가되어 더욱 편리해졌습니다. 이번 글에서는 Replit과 Replit Agent의 사용법을 자세히 알아보겠습니다.

Replit 이란?

Replit은 웹 브라우저에서 바로 실행할 수 있는 온라인 IDE입니다. 별도의 설치 없이 코드를 작성하고 실행할 수 있어 초보 개발자들에게 큰 도움이 됩니다. 또한 다양한 프로그래밍 언어를 지원하고 협업 기능을 제공하여 팀 프로젝트에도 활용할 수 있습니다.

01 what-is-replit-35afbf33bef30d825ee6ca617d431144.png

오늘은 Replit의 다양한 기능중 AI 기반 코딩 도우미인 Replit Agent 사용법에 대해 자세히 알아보겠습니다.

Replit Agent 사용법

Replit Agent는 AI 기반 코딩 도우미로, 자연어 프롬프트를 이해하고 코드를 생성할 수 있습니다. 이를 통해 모든 수준의 개발자가 소프트웨어 개발에 더욱 쉽게 접근할 수 있습니다.

1) Replit 웹사이트에 접속 하고 로그인 합니다.

02 replit-first-screen-e1e4b377450cddd1584165106bb17238.png

2) Replit Agent에게 구축할 내용을 자연어로 입력합니다.

아래와 같은 프롬프트를 입력하여 Replit Agent에게 코드를 생성해달라고 요청할 수 있습니다.

03 replit-agent-prompt-example-10c36aff3fc2c20c1287a6461b865129.png

Replit Agent 프롬프트

주식 종목 코드를 입력하면 재무 데이터 요약을 얻고 싶습니다. 주가와 다른 주요 재무 정보를 추적하는 표와 차트를 보여주세요. Yahoo 파이낸스의 데이터를 사용해 주세요. 표 데이터를 CSV 파일로 다운로드할 수 있게 해주세요.

3) Agent가 생성한 계획을 검토하고 수정합니다.

프롬프를 입력 하면 Replit Agent가 코드를 생성하고, 생성된 코드를 검토하고 수정할 수 있습니다.

04 replit-planning-e10b74f87031825db3d9f54196829abf.png

코드 생성 계획이 마음에 들면 ‘Approve plan & Start’ 버튼을 클릭하여 코드 생성을 시작합니다.

4) Replit Agent 의 진행 상황을 모니터링하고, API 키나 피드백 등을 제공합니다.

Replit Agent 가 코드를 생성하는 동안 진행 상황을 모니터링하고, 필요한 정보를 입력하거나 추가 질문을 할 수 있습니다.

아래와 같이 Replit Agent가 라이브러리 설치도 자동으로 진행됩니다. 05 replit-install-9797b3382e6fd1d0d64bab10bf4d0c5c.png

라이브러리 설치 과정이 비개발자 입장에서는 어려울수 있지만 Replit Agent가 자동으로 처리해주기 때문에 사용자는 코드 생성에만 집중할 수 있습니다.

5) 생성된 코드 확인

이렇게 코드 작성이 완료 되면 코드와 함께 실행 결과를 preview로 보여 줍니다.

06 replit-agent-result4-9cb89a0503143a72b98f7c205ce6bb6e.png

코드 뿐만 아니라 실행 결과를 아래와 같이 preview로 보여 줍니다.

07 replit-agent-result1-f34a0b0a592e29b5cbee939512fcc240.png

아래와 같이 특정 주식의 Symbol을 입력 하면 주식 정보를 보여줍니다.

08 replit-agent-result2-3fde3e875b9fee4a6efe6fdcf989e92d.png

아래 차트 까지 잘 그려준 걸 볼 수 있습니다. 09 replit-agent-result3-1c1a01f23123dd991b20885c45872b62.png

6) 최종적으로 애플리케이션을 배포합니다.

이렇게 작성된 코드를 작성 하는것 뿐만 아니라 서버에 배포 까지 할 수 있습니다.

협업 기능

Replit은 다른 사용자를 프로젝트에 초대하여 실시간으로 협업할 수 있는 기능을 제공합니다.

  1. 왼쪽 패널에서 “Invite” 버튼을 클릭합니다.
  2. 이메일 주소나 Replit 계정 이름을 입력하여 초대합니다.
  3. 또는 “Private Invite Link”를 복사하여 공유할 수 있습니다.

초대받은 사용자는 코드를 실시간으로 수정할 수 있으며, 다른 사용자의 커서 움직임도 확인할 수 있습니다.

기타 기능

  • 다양한 테마와 에디터 설정을 제공하여 개인 취향에 맞게 커스터마이징할 수 있습니다.
  • 파일 업로드/다운로드, 버전 관리 등의 기능을 지원합니다.
  • 유료 플랜을 구독하면 더 많은 기능과 리소스를 사용할 수 있습니다.

Replit은 비개발자인 초보자부터 전문가까지 모든 개발자가 쉽고 편리하게 코딩할 수 있는 환경을 제공합니다. AI 기반 Replit Agent의 도입으로 소프트웨어 개발 접근성이 한층 더 향상되었습니다. 브라우저만 있다면 언제 어디서나 Replit으로 코딩을 시작해보세요!

[출처] https://www.magicaiprompts.com/blog/replit-usage-guide

Loading

12 4월 2025

[사회과학] [박진영의 사회심리학] ‘초과근무’, 반드시 좋은 성과 낳는 건 아니다

[사회과학] [박진영의 사회심리학] ‘초과근무’, 반드시 좋은 성과 낳는 건 아니다

[박진영의 사회심리학] ‘초과근무’, 반드시 좋은 성과 낳는 건 아니다

입력
게티이미지뱅크 제공

게티이미지뱅크 제공

벌써 10년이 훨씬 지난 이야기지만 야근이 잦은 회사에서 잠시 일한 적이 있다. 일의 성과보다도 엉덩이가 무겁게 회사에 ‘오래’ 붙어있는 것이 충성심(?)과 성실함의 상징으로 여겨지는 곳이었다.

특이한 현상들을 많이 관찰 할 수 있었지만 그 중 하나는 낮에는 아무도 일을 하지 않는 것이었다. 낮 시간에 일을 열심히 하든 안하든 그것과 상관 없이 어차피 야근을 할 것이므로 다들 한 두 시간이면 할 수 있는 일을 하루 종일 들고 있다가 저녁이 되면 그제서야 시작하는 식이었다.

오랜 시간 일하는 관행이 곧 높은 생산성으로 이어질 것이라는 통념들에 대해 전혀 그렇지 않음을 실감한 순간이었다.

하루 종일 열심히 일하고 초과 근무까지 하는 상황이라고 해도 결론은 크게 다르지 않다. 사람은 기계와 달리 오늘 준비한 에너지가 다 소모되면 작동을 멈추거나 오작동을 남발하게 되기 때문이다.

필자의 경우 잠을 쫓아내며 늦은 시간까지 열심히 일하고 나서 다음날 멀쩡한 정신으로 지난 밤 내가 일한 내용을 보았을 때 평소라면 하지 않았을 어처구니 없는 실수를 발견하는 일이 종종 있었다. 결국 처음부터 다시 해야 했기 때문에 건강도 잃고 생산성도 잃은 슬픈 경험들이었다.

다들 경험으로 어느 정도 알고 있는 사실이지만 리케 텐 브룸멜후이스 사이몬 프레이저대의 연구팀은 좀 더 체계적으로 이 사실을 확인했다.

연구자들은 영업직, 컨설팅, 엔지니어링 등 다양한 업종에 종사하는 사람들을 대상으로 약 5일 간 하루 동안 일한 시간과 이들이 하루 동안 보인 성과(동료 직원의 평가)를 측정했다. 또한 스마트 워치를 통해 참가자들의 수면 패턴에 관한 정보를 수집했다.

그 결과 평소보다 초과근무를 했을 경우 당일에는 동료들로부터 좋은 성과를 냈다는 평을 받는 현상이 나타났지만 문제는 그 다음날이었다. 전날 과로한 사람들은 잠을 푹 자지 못하거나 수면시간이 부족한 편이었고 그만큼 다음 날 업무 성과가 저조한 편이었다.

결국 과로를 하는 경우 미래의 생산성을 땡겨서 쓰는 것일 뿐 당장은 성과가 좋더라도 그것이 계속 이어지지 않으며 종국에는 몸도 상하고 업무 성과도 떨어지고 만다는 것이다. 사람이 하루, 한 주 동안 생산적으로 해낼 수 있는 업무량에는 한도가 있고 휴식을 취해야만 다시 비슷한 생산성을 보일 수 있다는 모두가 잘 알고 있는 이야기다.

쉬지 않고 계속해서 무리할 경우 당장은 높은 생산성을 보이겠지만 그 이면에는 신체적, 정신적 건강과 미래의 마이너스 생산성이라는 빚을 쌓는 것임을 기억해보자.

어쩌면 평소에는 일을 하지 않다가 마감이 되어서야 잔뜩 벼락치기를 하는 것 역시 비슷한 이유로 매우 비효율적인 전략일지도 모르겠다. 멀쩡한 정신 상태인 내가 두세 시간이면 할 수 있는 일을 밤 늦게까지 잠을 쫓아가며 해야 하기 때문에 두세 배 더 많은 시간과 노력을 들여야 하고 그럼에도 불구하고 많은 실수를 하고 또 그 다음 날에도 성과가 떨어지는 최악의 상황을 반복하고 있지는 않은 지 생각해 보는 것도 좋겠다.

Ten Brummelhuis, L.L., Calderwood, C., Rosen, C.C., & Gabriel, A.S. (2024). Peaking today, taking it easy tomorrow: Daily performance dynamics of working long hours. Journal of Organizational Behavior, 0:1–18. https://doi.org/10.1002/job.2847

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

Loading

11 4월 2025

[산업] [알아봅시다] 국비지원 교육의 민낯: 수강생이 알아야 할 현실과 팁

[산업] [알아봅시다] 국비지원 교육의 민낯: 수강생이 알아야 할 현실과 팁

01e9f8b3-b851-4bdd-9e05-d70d4d5d9145.png

국비지원 교육의 민낯: 수강생이 알아야 할 현실과 팁

국비지원 교육은 실직자나 구직자에게는 큰 기회로 보입니다. 무료로 교육을 받을 수 있고, 취업 지원까지 연결되는 경우도 많기 때문이죠. 그런데, 이런 제도를 악용하거나 진정성 없이 운영되는 국비학원과 강사들이 있다는 사실, 알고 계셨나요?

열정적인 소수 vs 다수의 형식적 강사

먼저 분명히 해두고 싶은 건, 일부 강사분들은 정말 열정과 사명감을 가지고 수업에 임하고 계십니다. 하지만 현실적으로 그런 분들은 소수에 불과하고, 많은 강사들이 현업 능력 없이 ‘국가 지원금’을 노리고 학원에 들어오는 경우도 있습니다.

수강생 한 명당 500만 원에서 1,000만 원 정도의 교육비가 책정되기 때문에, 이 시스템을 악용하려는 사람들이 생겨나는 겁니다. 이들은 “2주만 버티게” 설득하고, 이후에는 수업의 질이 급격히 떨어지거나, 반말, 욕설 등 비인격적인 태도를 보이기도 합니다.

수강생을 향한 ‘역 갑질’

더 큰 문제는 일부 강사들이 오히려 수강생에게 “공짜로 배우는 입장”이라는 식으로 말하면서 갑질을 한다는 점입니다. 실상은 그 반대죠. 국비 지원금은 국민의 세금이며, 수강생은 그 세금을 통해 교육을 ‘위탁’ 받은 것입니다.

특히 어린 수강생에게는 고압적인 태도를 취하거나, 신고당할까봐 더 강하게 통제하려 드는 사례도 있습니다. 이런 부류의 강사들은 한 학원에서 문제 생기면 다른 학원으로 옮겨 다니며 계속 같은 방식으로 활동합니다. 마치 ‘회피형 생존자’ 같은 느낌이죠.

이런 강사, 이렇게 걸러라

1. 석사/박사 타이틀에 현혹되지 마라

특히 정체불명의 대학원 출신인데도 현업 경험 없이 강의만 한다면, 실전 능력과는 거리가 있을 가능성이 높습니다.

2. 경력 정보가 모호하다면 의심하라

“10년 경력”이라고 해도 어디서 무슨 일을 했는지가 중요합니다. 회사명이 안 나와 있거나, 검색이 안 되는 곳이면 걸러야 할 가능성이 큽니다.

3. ‘대표’ 타이틀도 주의

강사인데 “스타트업 대표”라고 해도 실제로는 그냥 프리랜서 활동일 수 있습니다. 포장에 현혹되지 마세요.

4. 포트폴리오를 꼭 확인하라

직접 수업을 들은 이전 기수 수강생들이 만든 포트폴리오를 보여달라고 하세요. 그리고 면접관이 된 것처럼 자세하게 질문하세요. 상담 과정에서 얼버무리거나 대답이 불분명하면 과감히 걸러야 합니다.

문제가 생겼다면, 반드시 대응하자

수업 중에 강사의 언행이 부적절하거나, 교육 내용이 지나치게 부실하다고 느껴진다면 국민신문고를 통해 신고하세요. 수동적으로 참고만 있다가 시간과 기회를 잃는 건 여러분입니다.


결론
국비지원 교육을 선택하는 것은 나쁜 것이 아닙니다. 하지만 그 선택이 올바른 결과를 내기 위해서는 수강생 스스로가 철저히 분석하고, 적극적으로 권리를 주장해야 합니다.
지금 이 글을 읽고 있다면, 당신은 이미 ‘당하지 않는’ 수강생이 될 준비가 되어 있는 겁니다.

[원본] https://gall.dcinside.com/mgallery/board/view/?id=gukbi&no=1939&page=1  

국비 강사 새끼들은 그냥 세금 도둑임 – 국비학원 마이너 갤러리
 
 
 
아주 아주 아주 소수의 일부 열정 있는 강사들 제외하고
대부분의 강사는 현업에서 구를 능력도 안 되고 나라 세금 빼먹는 데만 눈깔 돌아간 씹새끼들임
국비 학원 수강생 두당 500~1000만원씩 빨아먹을 수 있기 때문에 이 새끼들은 그냥 입발린 말로 사람 현혹시켜서 즈그 학원에 2주 이상 붙여 놓으려고 안간힘을 씀
마법의 2주만 지나면 수강생들에게 중도 포기 페널티가 생겨서 중도 포기를 잘 안 하걸랑
2주 뒤엔 본색을 드러냄. 아마 수업도 개 좆같이 할거고, 반말 찍찍 싸면서 욕하는 새끼들은 이때쯤 속내를 드러내기 시작함.
그리고 사실 세금을 빨아 처먹으면서 생존하는 건 자기들임에도 불구하고 수강생들한테 역으로 국가 돈으로, 공짜로 수업 듣는다는 개소리를 시전하는 새끼들도 있을 것임
 
이런 븅신 새끼들은 도대체 뭔 배짱인진 모르겠으나 강사 신분으로 갑질을 함
사실 이런 갑질하는 새끼들이 신고 먹을까 봐 두려워서 더 심한 갑질로 나이 어린 수강생들 기를 죽이는 경우가 있음
이런 새끼들은 현업으로 갈 수도 없는 새끼들이기 때문에 그냥 신고 먹고 밥줄 끊기면 다른 학원 찾아서 또 움직이는 똥파리 같은 새끼들이라 제일 노답인 새끼들임
 
자 이제 이런 새끼들을 피할 방법을 알려주겠음
강사인데 석사, 박사다? 거르셈
석사, 박사 달고 국비학원 강사 하는 건 존나 노답일 가능성이 높단 말임. 특히 어디 듣지도 보지도 못한 대학원 나온 놈들은 대학을 안 쓰는 경우가 있음. 조심하셈
어느 회사에서 일했는지는 안 적혀있고 경력이 존나 길다?
어느 회사에서 무슨 일 했는지가 중요한데 이걸 안 적었다는 건, 물 경력일 확률이 높단 소리임.
회사가 적혀있긴한데 뭔 회사인지 검색해도 잘 안 나오고 사원수도 몇 명인지 모르겠다?
그냥 거르셈
자기가 강사인데 어디 회사 대표다?
그냥 강사하면서 프리 뛰는 거니깐 거창하게 생각하지 마라
 
제일 중요한 건, 바로 전 회차 수강생들이 만든 포폴 보여달라고 해라
그리고 니가 면접관이 된 것처럼 존나 캐물어라
존나 캐묻는데 상담하는 놈이 아가리로 태극권을 쓴다고? 그냥 걸러
 
 
 
그리고 수업 듣는데 말 좆같이 하는 강사 있으면 그냥 국민신문고로 죽창 찔러라
 
돈 내는 건 너희임
 
 

Loading

8 4월 2025

[一日30分 인생승리의 학습법] [알아봅시다] 블록체인 게임들의 가능성과 미래

[一日30分 인생승리의 학습법] [알아봅시다] 블록체인 게임들의 가능성과 미래

ChatGPT Image 2025년 4월 8일 오후 07_26_42.png

학습 차원에서 틈틈이 해외 전문가들이 블로그나 미디어 그리고 책에서 쓴 글을 번역 또는 요약 정리하고 있습니다. 이번 포스팅도 그중 하나고요. 거칠고 오역된 부분이 있을 수 있습니다. 제대로 번역되지 않은 부분은 확인 주시면 반영토록 하겠습니다. 이번글은 뱅크리스에 올라온 글을 정리한 것입니다.

2087년 이더리움이 마침내 주류가 되고 연준이 더 이상 존재하지 않게 되면, 역사학자들은 암호화폐의 기원을 2011년 블리자드가 비탈릭 부테린의 월드 오브 워크래프트 캐릭터에 ‘생명을 빨아들이는’ 주문을 너프(nerf)했던 운명적인 순간으로 거슬러 올라갈 것이다.

이 이야기는 15살의 비탈릭이 ‘중앙 집중식 서비스의 공포’에 눈을 뜨게 했고, 마침내 중앙 집중식 비디오 게임의 광기를 종식시킨 이더리움이 탄생하게 된 계기가 됐다.

적어도 우리는 그 방향으로 가고 있다.

안타깝게도 대부분의 기존 블록체인 게임들은 마케팅 페이지를 장식하는 무허가(permissionless) 상호 운용성과 진정한 소유권이라는 멋진 약속에도 불구하고 여전히 위의 검열 사례에 적용을 받을 수 있다.

현재 블록체인 게임들의 (거짓) 약속(The (false) promises of today’s blockchain games)

잠시 시간을 거슬러 올라가 블록체인의 목적을 다시 떠올려 보자. 블록체인은 분산된 데이터베이스에 대한 공유 합의를 촉진하는 역할을 한다. 사람들이 동의하지 않을 때 전체 암호화폐 커뮤니티가 체인 분할을 진행하기 위해 많이 노력하는 것도 이 때문이다. 포킹( Forking)은 화해할 수 없는 차이들 사이에서 합의를 재조정한다.

그렇다면 도대체 왜 블록체인을 기반으로 게임을 개발할까?

같은 이유:비탈릭이 자신이 사랑하던 흑마법사를 약화시키기로 한 블리자드의 결정에 동의하지 않았던 것처럼, 사람들은 게임 세계를 어떻게 구축해야 하는지에 대해 근본적으로 동의하지 않는다. 따라서 블록체인을 통한 게임의 진정한 가능성은 분열된 게임 커뮤니티가 서로의 차이를 해결할 수 있도록 하는 것이다.

문제는 대부분의 블록체인 게임이 여기에 미치지 못한다는 것이다. 액시 인피니티나 크립토키티와 같은 게임은 최소한의 온체인 게임이다. 자산은 온체인 데이터로 존재하지만, 게임의 기본 로직(게임 규칙)과 상태(게임 내 행동 기록)는 중앙화된 게임 서버, 오프체인에 있다.

물론 개인 키를 안전하게 보관하는 한, 당신의 액시(Axie) NFT와 토큰은 불변하는 스마트 컨트랙트 내 데이터로 영원히 존재한다. 하지만 엑시를 개발한 스카이 마비스가 문을 닫는다면, 당신의 엑스 자산 가치도 사라질 것입니다. 소유권은 단순히 지갑에 데이터를 보호하는 것 이상의 의미를 갖는다. 소유권은 해당 데이터가 어디에 있는지, 즉 게임 규칙을 통제하고 발언권을 가질 수 있는 힘이기도 하다.

이들 자산의 금전적 가치는 전적으로 스카이 마비스가 엑스 인피니티 생태계를 상업적인 제품으로 성공적으로 제공할 수 있는 능력에 달려 있다. 웹 3.0으로 광고되지만 플레이어는 오프체인과 중앙에서 계획된 게임의 기본 규칙을 거의 제어할 수 없기 때문에 웹 2.5에 더 가깝다.

실제 웹 3 게임들의 아키텍처(The architecture of actually Web3 games)

검열이 불가능하고 막을 수 없는 블록체인 게임을 만들려면 어떻게 시작해야 할까? 구브시프의 ‘가장 강력한 크립토 게임 논문’에 따르면: 

게임의 로직과 상태는 온체인에 있다. 게임의 규칙(이동, 전투, 채집, 소비 방법)은 오픈소스 및 온체인 스마트 컨트랙트에 규칙으로 포함되어야 한다.

모든 게임 데이터는 블록체인에 있으므로 상호 운용이 가능하다. 게임은 클라이언트에 구애받지 않는다. 

핵심 개발자가 내일 사라져도 플레이어는 게임을 계속 플레이하기 위해 개발자에게 의존할 필요가 없으며, 커뮤니티에 있는 사람들이 플레이어 움직임을 온체인으로 전송하는 자체 클라이언트를 만들 수 있다.

위의 조건들이 충족되면 몇 가지 중요한 일이 일어나기 시작한다.

퍼미션리스 혁신(Permissionless Innovation)

온체인 게임 로직은 첫째 회사가 파산하거나 개발을 포기하더라도 디파이 프로토콜이 영구적으로 실행되는 것과 같은 방식으로 게임 세계는 영속성을 확보하고 계속 존재한다. 로난 샌드포드의 말처럼, 온체인 게임은 ‘현실 독립성'(reality independence)을 제공한다.

둘째, 퍼미션리스 혁신에 문이 열려 있다. 모든 플레이어는 기본 게임 규칙(즉, 디지털 물리를 참조하는 스마트 컨트랙트 형태로 두 번째 레이어 규칙(큐리오는 이를 사용자 생성 로직이라고 부름)을 도입해 게임을 창의적으로 ‘모드'(mod: 게이머가 게임에 새로운 기능을 추가하는 것)할 수 있다.

이것은 혼란스럽게 들일 수 있지만 그렇지 않다. 이것은 간단히 말해 개발자가 기존 프로토콜 위에서 허가 없이 새로운 프로토콜을 구축하는 디파이 결합성 101((one-oh-one으로 발음, 모든 분야의 초보자 대상으로 준비된 과정)이다.

세컨드 레이어 규칙들이 기본 규칙을 위반하지 않는 한, 허용된다. 세컨드 레이어 규칙은 개인 사용자 인터페이스와 로컬 경험만 변경하는 기존 게임들의 애드온/모드와 달리, 다른 모든 플레이어와 공유하는 가상 게임 경험에 영향을 미치는 온체인 스마트 컨트랙트에 내장된다는 것을 주목할 필요가 있다.

예를 들어, 체스 말의 고전적인 움직임을 유지하기로 결정한 완전 온체인 체스 게임은 핵심 개발자의 스마트 컨트랙트에 고전적인 규칙을 협상할 수 없고 변경할 수 없는 것으로 명시할 것이다. 기사는 L자 모양으로만 움직일 수 있고 비숍은 대각선으로만 횡단할 수 있다.

하지만 누구나 이러한 변경 불가능한 디지털 물리학 위에 새로운 세컨드 레이어 규칙을 만들 수 있다. 토큰, 길드 시스템, 상대방의 왕을 점령해 게임에서 승리하는 대신 내 왕을 보드 반대쪽 끝으로 이동시켜야 승리하는 RPG와 같은 퀘스트 라인이 될 수 있다. 토큰 화폐를 통해 죽은 왕을 다시 사거나 상대방과 왕을 교환하는 거래 시스템을 도입할 수도 있다. 기본 규칙의 논리가 허용하는 한 무엇이든 가능하다.

진정한 상호 운용성(True Interoperability)

온체인 게임에서 자산은 하나의 엄격한 게임 로직에 얽매이지 않으며, 가장 넓은 의미에서 최대한 상호 운용이 가능하다. 디파이에서 수천 개 토큰이 자체 규칙 세트, 즉 토큰노믹스 모델을 기반으로 서로 경쟁하는 것과 마찬가지로, 게임 자산은 지속적으로 확장되는 게임 세계에서 또 다른 토큰으로 존재하기도 한다.

반면, 에픽은 포트나이트 게임 자산을 게임 라이브러리 내에서 상호 운용할 수 있도록 허용할 수 있지만, 개발자가 허용하는 경우에만 상호 운용이 가능하다. 웹 2.5 블록체인 게임의 게임 자산도 마찬가지다.

강력한 인센티브(High-Powered Incentives)

이제 퍼즐의 마지막 조각인 인센티브에 대해 알아보자. 기존 게임에는 매우 활발한 모딩 커뮤니티가 많지만, 핵심 개발자의 의지에 따라 운영된다. 마인크래프트 역사가 대표적인 사례다.

경제적인 측면에서 보면 모더들(modders) 재산권은 약하기 때문에 창작에 대한 인센티브가 약하다. 따라서 모드는 일반적으로 이타주의에 기반한 애호가나 취미로 운영되는 경우가 많다.

완전한 온체인 게임은 이 문제를 해결한다. 온체인 게임에서는 생성된 모드가 검열할 수 없고 영구적인 창작물(앞서 언급한 두 번째 레이어 규칙)이 불변의 스마트 컨트랙트에 코드화되므로 플레이어가 모드를 만들려는 인센티브가 더 강력해진다.

토큰, 게임 메커니즘, 사회적 제도, 게임 내에서 플레이어가 만든 규칙의 근간이 되는 소유권 규칙은 플레이어가 완전히 통제할 수 있으며, 허가된 게임 로직과 규칙의 기본 세트에 구속되지 않는다. 가장 중요한 것은 게임 경제 내에서 플레이어가 만든 다른 창작물과 경쟁한다는 것이다.

따라서 온체인 게임 세계에서는 핵심 게임 개발자가 일방적으로 바뀌는 게임 기본 규칙에 대해 스스로 손을 묶는 것을 약속한다. 이것이 바로 비탈릭의 월드 오브 워크래프트 툰(toon)을 살릴 수 있는 방법이다. 게임 독재의 시대는 지나갈 것이다. 이론은 충분했으니 이제 온체인 게임의 몇 가지 예를 살펴보자.

온체인 게임들 살펴보기(Looking at on-chain games)

다크 포레스트는 아마도 온체인 게임의 최고 예일 것이다. 0xPARC 재단의 Gubsheep이 개발한 다크 포레스트는 2019년부터 그노시스(Gnosis)  체인에 배포된 우주를 테마로 한 멀티플레이어 전략 게임이다.

다크 포레스트의 전체 게임 로직과 상태는 온체인에 포함돼 있다.  기존 온라인 게임과 달리 게임 동작을 처리하거나 게임 상태를 저장하는 중앙화된 서버나 데이터베이스가 없다.

앞서 설명한 것처럼, 온체인 게임의 마법은 플레이어가 온체인 속성을 활용해 자발적으로 생성할 수 있는 새로운 주문에 있다. 다크 포레스트에는 이러한 예가 무궁무진하다. 다크 포레스트 플레이어들은 핵심 개발자가 거래 시스템이나 경매장을 위한 패치를 도입하지 않고도 게임 내 자원을 거래할 수 있는 게임 내 마켓플레이스를 만들었다.

다크 포레스트에는 길드 시스템이 내장돼 있지 않기 때문에, 몇몇 플레이어(DFDAO)는 외부 스마트 컨트랙트를 통해 자체적으로 퍼미션리스 온체인 길드 시스템을 구축했다. 이를 통해 많은 소규모 플레이어가 완전히 무신뢰(trustless) 방식으로 자원을 조정하고 모을 수 있었고 숙련된 플레이어가 지배하는 리더보드에서 경쟁력을 갖추기 위한 의도로 사용됐다. DFDAO 블로그에 설명된 대로

DFDAO는 또한 다크 포레스트 게임을 완전히 다른 체인으로 포크했다. 다크 포레스트 아레나라는 포크 버전은 다양한 새로운 게임 모드를 도입했다. 다른 MMORPG에서는 이러한 모든 행위가 불법, 암시장 거래 또는 “해킹”으로 간주될 것이다.  다크 포레스트와 같은 온체인 게임에서는 모든 것이 허용되고 코드 상에서 실행된다.

커뮤니티가 주도한 긴급 명령의 예는 Lattice 팀이 만든 마인크래프트 온체인 버전인 OPCraft에서도 찾아볼 수 있다.  OPCraft의 초기 테스트 출시에서 플레이어들은 자원 수집을 자동화하고, 서로 채팅하고, 맵을 텔레포트하고, 월드 색상을 변경하는 플러그인을 만들었다.

SupremeLeaderOP라는 이름의 한 플레이어는 온체인 스마트 컨트랙트를 배포해 일련의 규칙이 포함된 공산주의 공화국을 만들었다. 자발적으로 공화국에 가입한 모든 플레이어는 사회주의 철학에 따라 기존의 모든 재산을 포기하고 재고를 공동의 국고로 통합해야 했다.

물론 게임에서 긴급 명령의 예는 새로운 것이 아니다. 이브(eve) 온라인 플레이어들은 게임 제작자가 게임 내 길드 도구를 만들지 않았을 때 디스코드(Discord)에서 오프라인 소셜 동맹을 조직했다. 에버퀘스트와 월드 오브 워크래프트 플레이어들은 비공식적인 소셜 화폐 시스템인 ‘DKP(드래곤 킬 포인트)’를 개발해 게임 내 공격대에 투입한 시간에 따라 플레이어를 관리하고 보상을 제공했다.

완전 온체인 게임들에 장애물들(Obstacles to fully on-chain games)

온체인 게임이 그렇게 훌륭하다면 왜 더 널리 보급되지 않았을까? 온체인 게임이 직면한 가장 명백한 장애물은 확장성이다. 모든 플레이어 행동을 온체인으로 전송하는 것은 연산 집약적이기 때문에 대부분의 온체인 게임은 이더리움 메인넷이 아닌 턴 기반(turn-based) 게임이다. 온체인에 영구적으로 존재하는 변경 불가능한 코드는 개발자 부주의로 인해 발생하는 익스플로잇을 패치하기 어렵다는 것을 의미한다.

퍼미션리스 게임은 또한 기회주의적인 플레이어와 봇에게 문호를 개방하는 것을 수반한다. 기존 블록체인 게임인 엑시(Axie)나 페가시(Pegaxy)는 비용이 많이 드는 진입 장벽을 통해 이를 어느 정도 완화하고 있으며, 기존 게임들은 KYC 방법과 선별적 차단을 통해 이러한 문제를 해결하지만, 퍼미션리스 온체인 게임에서는 이러한 중앙화된 수단을 사용할 수 없다.

어떤 면에서 온체인 게임의 문제는 사회적 고착화와 집단 행동 문제로 인해 변화하기 어려운 불완전한 현실 세계 제도(제국주의 체제나 민주주의 정치를 생각해보라)와 매우 유사하다. 커뮤니티와 핵심 개발자 모두가 이러한 문제에 직면해 나쁜 행동을 노골적으로 검열하기보다는 기업가적인 해결책과 창의적인 메커니즘 설계를 통해 나쁜 행동을 억제해야 한다.

이러한 창작물이 다른 점은 게임의 개방적인 구성 덕분에 허가 없이 생성되고 온체인에 내장된다는 점이다.. OPCraft 공산주의 공화국 플레이어들은 그가 누구인지 몰랐지만, 그가 약속을 지킬 것이라는 믿음을 가질 필요는 없었다.

그노시스 체인 기반 외교 전략 게임인 Conquest에서 플레이어는 xDAI 토큰을 스테이킹해 우주선을 생산하고, 동맹을 맺고, 문명 방식으로 서로를 공격한다. 다시 말하지만, 온체인 스마트 컨트랙트를 생성할 수 있다는 것은 플레이어 동맹이 실제 가치가 있는 자산에 묶여 있다는 것을 의미하며, 플레이어 동맹 간 신뢰 없는 상호작용을 보여준다.

온체인 게임에 대한 간단한 참고 사항(A quick note on on-chain game)

온체인 게임은 아직 개념 증명 단계에 머물러 있다. 개발자들은 여전히 최적의 확장 방법을 찾기 위해 노력하고 있으며, 용어 또한 산재되어 있다. 래티스(Lattice)는 이를 자율 세계(Autonomous Worlds)라고 부르고, 비블리오테카(Bibliotheca ) DAO에서는 영원한 게임, 이터널 게임스(Eternal Games) 플레이에서는 무한 게임, 토폴로지에서는 온체인 현실(on-chain realities)이라고 부릅니다. 당신은 아이디어를 얻을 수 있다.

위의 예시는 온체인 게임에서 떠오르는(emergent orders )  몇 가지 사례들일 뿐이지만, 가능성은 무궁무진하다. 모든 디앱의 루트가 블록체인에 공유 상태로 존재하기 때문에 디파이의 오픈소스 구성성을 통해 토큰이 상호 운용되고 다양한 방식으로 잘게 쪼개질 수 있는 것처럼, 블록체인을 완전히 수용하는 게임도 마찬가지일 것이다.

게임 내 통화로 나만의 ERC20 토큰을 발행하라. 종교, 국가, 파벌 등 상상할 수 있는 모든 사회 구조를 형성하고 이를 체인에 올려보라. 보상이나 처벌이 포함된 퀘스트 라인을 토큰으로 작성하고 이를 변경 불가능한 스마트 컨트랙트에 연결해 보라.

기존 게임처럼 현실 세계와 분리되어 있지 않기 때문에 이를 ‘게임 내 경제’라고 부르는 것은 잘못된 명칭이다. 이는 크리에이터와 플레이어 간 경계를 허무는 현실 세계의 가치 경제이고 블록체인에 영구적으로 존재한다. 블록체인은 개인이 자발적으로 내리는 수많은 결정에서 새로운 생산과 거래 방식을 자유롭게 실험하며 지속적으로 발전할 수 있는 역량을 갖추고 있으며, 플레이어가 경제적 가치를 포착할 수 있는 무한한 길을 제공한다.

마무리하며

이 글에서 기존 블록체인 게임에 대해 혹평했지만, 웹 2.5 게임이 여전히 기존 게임보다 더 강력한 소유권을 제공한다는 점은 주목할 가치가 있다. 웹 2.5 게임은 적어도 플레이어가 자유롭게 게임을 종료할 수 있다. 자산이 지적 재산으로 보호되어 판매할 수 없는 기존 게임과 달리, 플레이어는 게임 내 토큰을 판매하고 자신의 시간에 대한 보상을 받을 수 있다.

하지만 웹 2.5 게임이 기존 게임보다 나은 점은 완전한 온체인 게임과 비교했을 때 미치지 못하는 것이기도 하다.

오프체인 게임 로직은 게임이 블록체인 기술의 잠재력을 충분히 활용하지 못하도록 방해한다. 완전한 온체인 게임만이 개방적이고 퍼미션리스 블록체인 인프라가 허용하는 인간의 독창성을 제대로 활용할 수 있다.

가장 위대한 비디오 게임 타이틀과 장르 중 일부는 ‘창발적 질서(emergent order)’의 부산물이다. 이 게임들은 게임 애호가와 취미로 게임을 즐기는 사람들이 “일단 해보고 보자”라는 공통된 패턴을 보여준다. 선풍적인 인기를 끌었던 MOBA(도타)와 타워 디펜스 장르는 모두 워크래프트 3 커스텀 게임 모딩 커뮤니티의 창작물에서 비롯됐다. 배틀그라운드: 배틀그라운드는 원래 FPS 슈팅 게임인 DayZ의 모드로, 다른 FPS 슈팅 게임인 아르마 2의 모드였다. 카운터 스트라이크는 90년대 가장 인기 있었던 게임 중 하나인 하프라이프의 모드였다. 온체인 게임은 이를 한 단계 더 발전시킨 것이다.

[출처] https://brunch.co.kr/@delight412/538

Loading

5 4월 2025

[사회과학] [박진영의 사회심리학] “어차피 저 사람과는 안돼”…부정 결론 서두르는 이유

[사회과학] [박진영의 사회심리학] “어차피 저 사람과는 안돼”…부정 결론 서두르는 이유

[박진영의 사회심리학] “어차피 저 사람과는 안돼”…부정 결론 서두르는 이유

입력
게티이미지뱅크 제공

게티이미지뱅크 제공

분명히 함께 좋은 시간을 보냈고 상대방도 내가 싫다는 표현을 한 적이 없음에도 웬지 ‘저 사람이 날 좋아할 리가 없어’라고 생각했던 적이 있지 않은가. 그 결과 이 관계는 잘 될 거라는 긍정적인 신호들에도 불구하고 어차피 안 될 거 시작도 하지 말자며 허무하게 좋은 사람을 놓쳐버린 경험들 말이다.

안타깝게도 ‘정말 즐거운 시간을 보냈어!’-> ‘저 사람은 나를 싫어하는 게 분명해’-> ‘연락하지 말자’->’고독’의 순서를 밟고 있는 사람들이 적지 않다. 문제는 즐거운 경험을 해도 마법의 필터를 돌려 저 사람은 나를 싫어하는 게 분명하다는 결론으로 서둘러 점프한다는 데 있다. 왜 잘 되어가고 있다는 증거를 왜곡해서 받아들이는 걸까.

우서 첫번째는 거절 신호에 대한 지나친 민감성 때문이다. 연구들에 의하면 사회 불안(social anxiety)이 높은 사람들이나 기본적으로 늘 걱정과 생각이 많은 사람(성격특성 중 신경증이 높은 경우), 또 거절에 대한 두려움이 큰 사람들은 그렇지 않은 사람들에 비해 거절과 관련된 신호에 민감하다.

예를 들어 상대방이 잠깐 딴생각을 하고 있기만 해도 이걸 딴생각 한다고 받아들이지 못하고 ‘나랑 같이 있는 게 지루한가!!’로 받아들이며 호들갑을 떤다. 부정적인 사회적 자극을 잡아내는데 혈안이 되어있기 때문에 중성적인 자극도 부정적으로 받아들이고 심지어 긍정적인 자극도 일단 의심을 하고 보는 등 가급적 모든 신호를 부정적으로 받아들이는 경향을 보인다.

그 결과 똑같이 좋은 사람을 만나서 좋은 시간을 보내도 사회 불안이 높은 사람들은 그렇지 않은 사람들에 비해 시무룩하고 비관적인 경향을 보인다.

두 번째는 기억의 왜곡이다. 브라이언 글레이저 브리티시컬럼비아대 연구팀은 다음과 같은 실험을 했다(Glazier & Alden, 2019).

사람들에게 3분 동안 자유 주제로 낯선 이들 앞에서 발표하도록 한다. 이 때 사람들의 피드백을 달리해서 어떤 사람들에게는 발표의 내용이 뛰어나고 목소리나 속도도 좋았다며 긍정적인 피드백을 주고 또 다른 사람들에게는 좋지도 나쁘지도 않은 중립적인 피드백을 준다. 그러고 나서 피드백을 받은 직후 또 일주일 후에 각각 당시 어떤 피드백을 받았는지 기억해보라고 물어본다.

그 결과 사회 불안이 높은 사람들이 그렇지 않은 사람들에 비해 긍정적인 피드백을 덜 긍정적으로 기억하는 경향을 보였다.

피드백을 받은 직후에는 기억의 왜곡이 일어나지 않았지만 일주일 후에는 똑같이 좋은 피드백을 받았음에도 불구하고 그보다 좋지 않은 피드백을 받았던 걸로 기억하는 경향을 보였다. 중립적인 피드백에서는 이러한 차이가 나타나지 않았다. 좋았던 기억에 한해 부정적인 방향의 왜곡이 일어난 것이다.

긍정적인 기억이 중요한 이유는 ‘예상’의 역할을 하기 때문이다. 발표를 했고 좋은 피드백을 받았다면 그것을 좋은 기억으로 저장해야 나중에 또 발표할 상황이 되었을 때 ‘그 때 발표 참 잘 했어. 좋았었지.’라고 좋은 예상을 가질 수 있다. 그래야 이번에도 잘 할 수 있을 거라는 희망과 자신감을 가지는 것이 가능하다.

하지만 기억을 왜곡하면 발표를 수백 번 잘 해도 이런 자신감이 형성되지 않는다. 좋은 경험을 근거로 탄탄한 자신감을 쌓아올리는 것이 가능한데 그런 과정이 일어나지 않는다는 것이다. 그러다 보면 늘 쓸데없이 비관적이고 자신감 없는 삶을 살게 된다.

인간관계도 마찬가지다. 아무리 좋은 관계를 많이 가져도 그걸 내가 좋은 경험으로 소화하지 못하면 계속해서 관계에 자신감이 없고 이번에도 안 될 거라며 포기하기 마련이다. 사회적 불안이 높은 사람들이 이런 경향을 보였다는 것이다.

따라서 연구자들은 관계적 신호를 부정적으로 해석하지 않는 것도 중요하지만 즐거웠던 경험을 즐거운 기억으로 오래 저장하는 것도 중요하다고 말한다. 개인적으로는 모임을 피하고 싶을 때면 그 모임에서 즐거웠던 일들을 떠올려보거나 일단 만나고 나면 내가 예상하는 것보다는 훨씬 더 즐거울 거라고 생각해보곤 한다.

또 누군가와 마음이 통하는 즐거움을 느낀다면 ‘아 정말 즐겁다’고 그 순간을 길게 음미해보기도 한다. 분명히 좋았는데 좋지 않았다고 생각하는 바람에 놓친 관계가 있는 것은 아닌지 생각해보자.

Glazier, B. L., & Alden, L. E. (2019). Social anxiety disorder and memory for positive feedback. Journal of Abnormal Psychology, 128, 228-233.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

[출처] https://n.news.naver.com/article/584/0000031743?cds=news_media_pc

Loading

1 4월 2025

[산업][알아봅시다] 대한민국 IT 서비스업의 민낯: 기술이 아닌 ‘관계’로 먹고 사는 현실 

[산업][알아봅시다] 대한민국 IT 서비스업의 민낯: 기술이 아닌 ‘관계’로 먹고 사는 현실 

🇰🇷 대한민국 IT 서비스업의 민낯: 기술이 아닌 ‘관계’로 먹고 사는 현실 – 에임시스템 사례를 중심으로

📅 작성일: 2025년 4월 1일
🕒 작성시간: 오후 7:01


💡 “기술 선도자”? 과연 누구의 기술인가

최근 에임시스템이 자사 보도자료나 인터뷰를 통해 국내 반도체-디스플레이 MES (Manufacturing Execution System) 를 독자 개발했다고 자랑하고 있다. 이를 통해 스스로를 ‘기술 선도자’ 로 포장하고 있으나, 정작 그 기술의 실체를 뜯어보면 많은 의문이 든다.

에임시스템이 운영체제를 만든 것도, 오피스 소프트웨어를 만든 것도 아니다.
그들이 개발한 것은, 삼성/LG의 생산 현장에서 습득한 ‘도메인 정보’를 바탕으로 한 응용 소프트웨어일 뿐이다.


🧩 도메인 정보 = 기술?

에임시스템은 삼성전자, LG디스플레이 등 국내 대기업의 생산 라인에서 하청 개발을 통해 현장에 깊숙이 들어가 있었다. 이 과정에서 단순히 프로그램을 만든 것이 아니라, 고객의 기술적 노하우 — 즉 도메인 지식을 흡수했고, 이를 자사 솔루션으로 재활용했다.

이후, 이들이 국가기반 기술로 인정받은 MES 시스템은 에임시스템의 자체 기술이라기보다는 고객 기술의 파생물이라는 비판을 피해갈 수 없다.


🌏 중국 진출? 그 기술, 정말 당신들 건가요?

더 큰 문제는, 이렇게 국내 대기업의 생산 도메인 정보를 기반으로 만든 시스템을 가지고, 중국 시장에 진출해 반도체-디스플레이 솔루션을 판매하고 있다는 점이다.
이는 단순한 기술 수출이 아니라, 정보 횡령이며 기술 유출에 가깝다는 비판이 제기되고 있다.


🧱 IT 서비스업의 구조적 문제

에임시스템만의 문제가 아니다.

국내 많은 IT 서비스 기업들이 스스로를 솔루션 기업이라 부르지만,
실제로는 고객사의 내부 인맥, 현장 직원의 정보, 운영 경험을 바탕으로 영업하고 있을 뿐이다.

진정한 IT 기반 기술력이나, 자체적인 원천기술 없이,
‘을’의 위치에서 확보한 관계성과 도메인 정보를 무기로 삼고 있을 뿐이다.


📉 우리가 기술이라 믿었던 것의 허상

이런 상황은 우리나라 IT 생태계의 기반이 얼마나 **脆弱(취약)**한지를 보여준다.
기술 기반 스타트업은 성장할 여지가 없고, 관계 기반 SI 업체들이 시장을 장악하고 있다.
결국, 우리가 믿고 있는 ‘국산 기술’, ‘토종 솔루션’ 중 상당수는 기술력이 아닌 영업력, 기술 개발이 아닌 기술 채취로 이루어진 허상일 수 있다.


🎯 결론

✔ 에임시스템은 독자 기술이 아닌 고객사 도메인 지식에 기반해 성장했다.
✔ 해당 지식을 기반으로 중국에 진출한 것은 도의적·법적 논란의 소지가 크다.
✔ 국내 IT 서비스업 전반에 걸쳐 ‘기술 착시’가 존재하며, 이를 바로잡기 위한 구조적 전환이 필요하다.


🔍 시각자료: 국내 IT 서비스업의 구조

다음은 블로그 본문에 삽입할 수 있는 인포그래픽 초안입니다.
“국내 IT 서비스 기업의 기술/영업 구조 분석”


 

 

mermaid-diagram-2025-03-31-223330.png
 

???? 작성일: 2025년 4월 1일

???? 작성시간: 오전 00:10

에임시스템이 “국내 반도체-디스플레이 MES” 시스템을 개발했다고

기술선도자로 떠벌리고 다니는 사례를 보면

에임시스템이 무슨 IT 기술이 있어서, OS를 개발한 것도 아니고, 오피스 소프트웨어를 개발한 것도 아니고

삼성, LG의 코딩 하청을 하다

삼성, LG의 메모리 반도체, 디스플레이 페널 생산시설의 도메인(고객 기술 내부정보) 지식을 탈취하여, 수집하여

응용 소프트웨어를 개발하는 것이지 무슨 기술이 있는게 아니다.

국가기반 기술 로 지정한것도 탈취한 생산기술 도메인 정보지, 에임시스템의 무슨 기술이 아니다.

그렇게 국내 반도체사/디스플레이사 의 기술을 중국으로 횡령(빼돌려) 중국에서 영업하고 있는 기업이다.

비단 에임시스템의 사례 뿐만 아니라,

국내 영업 서비스업의 협력업체 또한 무슨 IT기반 기술력 있는것이 아니라,

고객사의 갑질 직원의 인맥, 인프라, 도메인(내부정보)를 확보했기 때문에 영업하는것이지

정보기술(IT)의 기반 솔루션이 있는 것이 아니다.

 

Loading

30 3월 2025

[인공지능 기술]  [Pytorch] Pytorch & LLM Training Pipeline (pytorch로 chatgpt만들기, 기본예제)

[인공지능 기술]  [Pytorch] Pytorch & LLM Training Pipeline (pytorch로 chatgpt만들기, 기본예제)

Pytorch

Pytorych

What

Pytorch는 Opensource Machine Learning(ML) Framework로, Python 언어와 Torch Library를 기반으로 한다. Torch는 Opensource ML Library로, Deep learning을 이용하기 위해서 Lua Scripting으로 작성되었다. 현재, DL 연구를 위해서 가장 선호되는 플랫폼이다.

How to use?

Tools

Pytorch는 클라우드와 로컬, 두 가지 환경에서 활용할 수 있다.

  • In the cloud: Pytorch를 접근하기 가장 쉬운 방법으로, Microsoft를 통해서 접근하거나 Google Colab에서 실행해 볼 수 있다. 링크에만 접근한다면 Microsoft와 Colab에 작성된 Notebook에서 코드를 실행할 수 있다.
  • Locally: 로컬에서는 PyTorch and TorchVision 등을 우선 설치해야한다. 설치 가이드(installation instructions)를 따라서 설치할 수 있다. 다양한 버전이 홈페이지에 게재되어있다. Notebook을 활용하거나 IDE()에서 코드를 작성하여 실행하면 된다.

Pipieline

01 Prerequisites

Pytorch는 python 프로그래밍을 통해,딥러닝과 트랜스포머 개념을 구현해야한다.

02 Library installation

trl : Transformer language odel을 Reinforcement Leanring으로 학습하는데 사용한다.
peft : Prameter-effiecient Fine-tuning(PEFT)방법을 통해서 효율적으로 pre-treined model을 조정한다.
torrch : Opensource ML library
datasets : ML datasets을 로딩(loading) 또는 다운로딩(downloading)하기 위해 하용한다.
Trasformers : Hugging Face가 개발한 라이브러리로, 분류/요약/번역 등과 같은 다양한 텍스트를 위한 task를 수행하기 위해 수천 개의 PLM(pre-trained model)모델을 제공한다.

02-1 pip 를 통해서 pythong package 다운로드한다.

%%bash
pip -q install trl
pip -q install peft
pip -q install torch
pip -q install datasets
pip -q install transformers

02-1 import 통해서 pythong package를 가져온다

import torch
from trl import SFTTrainer
from datasets import load_dataset
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments

03 Data Loading and Preparation

03-01 Data loading

허깅페이스의 공개 데이터셋을 로드한다.
load_dataset : 데이터 로드
dataset_name : 로드하기 위한 데이터셋 이름
split parameter를 “train“로 설정하여 학습(traing)데이터로만 설정된 데이터 로드

dataset_name="tatsu-lab/alpaca"
train_dataset = load_dataset(dataset_name, split="train")
print(train_dataset)

03-02 Converting the dictionary into a pandas dataframe

로드한 데이터는 dictionary 타입으로, pandas의 dataframe으로 변환한다.

.to_pandas() : train_dataset을 pandas dataframe으로 변환

pandas_format = train_dataset.to_pandas()
display(pandas_format.head())

04 Model Training

  • Pre-trained Model : Pretrained 모델
  • Tokenizer : 데이터의 토큰화(tokenization)를 위해 사용하며, PLM과 tokenizer를 가져옴
  • AutoModelForCausalLM :
    • from_pretrained 메서드로 PLM을 가져오기 위해 사용
    • pretrained_model_name은 PLM 모델을 지정하며, data type은 모델의 tensor를torch.bfloat16로 설정

*AutoTokenizer:

  • from_pretrained : 가 PLM에 맞는 tokenizer를 가져오기 위해 사용하는 메서드
  • pretrained_model_name과 trust_remote_code를 true로 설정
pretrained_model_name = "Salesforce/xgen-7b-8k-base"
model = AutoModelForCausalLM.from_pretrained(pretrained_model_name, torch_dtype=torch.bfloat16)
tokenizer = AutoTokenizer.from_pretrained(pretrained_model_name, trust_remote_code=True)

05 Training configuration

Training을 위해 training arguments(인수)와 training configurations(구성)이 필요하다. 이는 TrainingArguments로 구성하며, LoraConfig model과 SFTTrainer model의 인스턴스이다.

06 TrainingArguments

output_dir 학습 모델 저장 위치
per_device_train_batch_size 한 학습에 사용하기 위한 학습 샘플의 사이즈
optim 옵티마이저
logging_steps 로깅을 위한 빈도로, n번의 스텝마다 기록
learning_rate 옵티마이저의 learning rate 설정
warmup_ratio
lr_scheduler_type
num_train_epochs
save_strategy

model_training_args = TrainingArguments(
       output_dir="xgen-7b-8k-base-fine-tuned",
       per_device_train_batch_size=4,
       optim="adamw_torch",
       logging_steps=80,
       learning_rate=2e-4,
       warmup_ratio=0.1,
       lr_scheduler_type="linear",
       num_train_epochs=1,
       save_strategy="epoch"
   )

07 LoRAConfig

LoRa(Low-Rank Adaptation)은 Hugging Face가 개발한 PEFT이다. peft 라이브러를 통해서 사용할 수 있다.
현재의 파이프라인에서는 하위 변환 행렬을 16으로 설정한다. LoRa의 매개변수의 스케일링 계수는 32로 서렁한다. 드롭아웃 비율은 0.05로 설정되었다.
CASULA_LM은 인과적 언어 모델(causual lanauge model)의 속성을 초기화한다.

08 SFTTrainer

training data, tokenizer, 모델의 추가 정보를 이용하여 학습한다.

아래는 로드한 텍스트 칼럼의 길이를 컬럼을 추가하여 저장하는 것이다. 이 데이터셋은 0~1000 크기의 텍스트 분포가 크다. (분포를 보여주는 표는 생략)
1024보다 큰 값의 비율을 구한다.

pandas_foramt은 특정 칼럼의 크기가 1024보다 큰것을 찾아 mask로 저장
percentage에 mask가 ‘texst_length’컬럼에서 차지하는 비율을 구함

pandas_format['text_length'] = pandas_format['text'].apply(len)

mask = pandas_format['text_length'] > 1024
percentage = (mask.sum() / pandas_format['text_length'].count()) * 100

print(f"The percentage of text documents with a length greater than 1024 is: {percentage}%")
  • 아래 코드는 SFTTrainer 의 인스턴스를 만들고 있다.
    model=model PLM을 SFTTrainer에 전달
    train_dataset=train_dataset train dataset을 SFTTrainer에 전달
    dataset_text_field="text" 텍스트 데이터를 포함하는 dataset 필드 지정
    max_seq_length=1024 모델 력의 최대 시퀀스 길이를 설정
    tokenizer=tokenizer tokenizer를 SFTTrainer에 전달
    args=model_training_args 모델 트레이닝을 위한 인수를 SFTTrainer에 전달
    packing=True효율적인 훈련을 위한 시퀀스 패킹 설정
    peft_config=lora_peft_config PEFT에 loraConfig 설정
SFT_trainer = SFTTrainer(
       model=model,
       train_dataset=train_dataset,
       dataset_text_field="text",
       max_seq_length=1024,
       tokenizer=tokenizer,
       args=model_training_args,
       packing=True,
       peft_config=lora_peft_config,
   )

09 Training execution

tokenizer.pad_token =tokenizer.eos_token padding token을 eos_token으로 설정(eos, end of sequence)
model.resize_token_embeddings(len(tokenizer)) 모델의 토큰 임베딩 계층을 tokenizer 길이로 설정
model=prepare_model_for_int8_training(model)) 양자화처럼, INT8 정밀도로 트레이닝할 수 있도록 준비
model = get_peft_model (model, lora_peft_config) 주어진 모델을 PEFT 구성에 따따 조정
training_args = model_training_args training_args에 미리 정의된 training 인수를 할당
trainer =SFT_Trainer SFTTrainer 인스턴스를 trainer에 저장
trainer.train() (위의) 설정에 따라 모델을 학습

tokenizer.pad_token = tokenizer.eos_token
model.resize_token_embeddings(len(tokenizer))
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_peft_config)
training_args = model_training_args
trainer = SFT_trainer
trainer.train()

Reference
[1] https://pytorch.org/tutorials/beginner/basics/intro.html
[2] https://www.datacamp.com/tutorial/how-to-train-a-llm-with-pytorch
[3] https://github.com/keitazoumana/Medium-Articles-Notebooks/blob/main/Train_your_LLM.ipynb

[출처] https://velog.io/@jasmine_s2/Pytorch-Pytorch-LLM-Training-Pipeline

Loading