1 6월 2014

弘益人間 (홍익인간)

사용자의 삶의 만족도를 높이고 불쾌함과 짜증을 감소시키는 견고하고 에러없는 소프트웨어 개발을 목표로 세월이 지나도 혁신적인 활동을 “에스 테크 스타 닷컴”은 이어갑니다.  좋은 소프트웨어 창출로 정보기술의 弘益人間 (홍익인간)을 구현합니다.

 


 

 

 

 

 

혼자가 아닌 나!


 

Loading

1 6월 2014

comphy’s profile

2014년
대한민국 공군 사이버전실습 및 대응체계 개발:평택공군제7전대
에스테크스타닷컴 에스천사게임즈 오픈
ebook 출판 예정

2013년
KT BIT OSS 프로젝트

2012년
삼성전자 가전사업부 표준화파트너 시스템 개발 (Java,JSP,Oracle)
행안부 종합장애대응체계 / 복지부 행복e음 유지보수

2011년
삼성전자 스마트그리드 서버 및 스마트TV 앱 검증 서버
삼성bada 2.0 검증 어플리케이션 개발 (MWC2011출품)

2010년
[LGU+] 패킷관련 프로젝트
[수원,구미] 삼성전자 MMP 프로젝트 (터치모바일플랫폼) : 피쳐폰의 스마트화

2009년
[천안] 삼성코닝 정밀유리 : S-Contour 프로젝트

2008년
삼성전자 소프트웨어연구소 QMO과제 수행

 

 

 

 

Loading

19 4월 2012

네 시작은 미약하였으나 네 나중은 심히 창대하리라.

네 시작은 미약하였으나 네 나중은 심히 창대하리라.

Your beginnings will seem humble, so prosperous will your future be….

나라장터 조달업체 등록 : 2014-07-04

한국SW산업협회 소프트웨어사업자등록 : B14-87964

출판업 신고 : 수지구청 제 123호

통신판매업 신고 : 제2012-용인수지-0185호

사업자 신고 : 용인 142-07-27414

sjkim_cc

 

 

Loading

13 5월 2999

Web Cloud & mobile App Business working Link

Web Cloud & mobile App Business working Link

  1. Biz Design Workplace
  2. Biz marketing tools Workplace
  3. Biz reference datas
    1. 프리렌서 업무 [크몽] : https://kmong.com/
    2. 모바일 앱 시장조사 [와이즈앱] : https://www.wiseapp.co.kr/
    3. 프리렌서 업무 [위시켓] : https://www.wishket.com
    4. 프리랜서 업무 [프리모아] : http://www.freemoa.net/
    5. 프리렌서 업무 [이렌서] : http://www.elancer.co.kr/
  4. Biz online Developing tool
  5. cloud developer console
    1. microsoft azure : https://azure.microsoft.com/ko-kr
    2. google developer console : https://console.cloud.google.com/?hl=ko
    3. amazon AWS : https://aws.amazon.com/ko/console/
  6. Mobile App Biz market
    1. android developer console : https://play.google.com/apps/publish/?hl=ko
    2. onestore (T Store) : http://dev.onestore.co.kr/devpoc/index.omp
    3. apple app store : https://developer.apple.com/app-store/
  7. 지적재산권 등록
    1. 특허정보검색(KIPRIS) : http://www.kipris.or.kr/khome/main.jsp
    2. 특허로(특허출원) : http://www.patent.go.kr/portal/Main.do

 

 

 

Loading

13 5월 2999

매일 들르는 곳 : nooksurfer : ホームページの閲覧えつらん者しゃ

매일 들르는 곳 : nooksurfer : ホームページの閲覧えつらん者しゃ

 

 

자주 들르는 곳 : Frequent stop :

 

모바일 (게임)개발툴 사이트

 

 

 웹 (사이트) 개발

 

 

디지털 마켓

 

 

멀티미디어 리소스 (마켓)

 

인문학과 사회와 재경학에 관심을 가져보자

 

오프라인 교육 기관

 

Loading

27 4월 2025

[사회과학] [박진영의 사회심리학] 고통을 직면해야 더 나은 삶을 살 수 있다 

[사회과학] [박진영의 사회심리학] 고통을 직면해야 더 나은 삶을 살 수 있다 

[박진영의 사회심리학] 고통을 직면해야 더 나은 삶을 살 수 있다 

입력
 

01 0000032079_001_20250426080025670.jpg

 

게티이미지뱅크 제공

흔히 긍정적인 시각을 갖는 것이 좋다고 할 때 많이 하는 실수 중 하나가 어려움의 존재 자체를 인정하지 않거나 회피해버리는 것이다.

예를 들어 대부분의 사람들이 나이가 들면서 한 두 가지씩 지병을 갖게 되지만 나는 해당되지 않을 것이고 나만은 많은 사람들이 실패하는 문턱에서 실패하지 않을 것이고 삶에서 우리가 통제할 수 없는 부분들은 언제나 많지만 내 삶의 요소들은 통제할 수 있는 게 더 많을 것이고 대부분의 인생은 굴곡져있으나 내 인생만큼은 평탄할 것이라고 믿는 (또는 믿고 싶어 하는) 경우를 적지 않게 본다.

그렇다면 거꾸로 이제 곧 큰 병에 걸릴 것이고 엄청나게 실패할 것이며 내 삶의 아무 것도 통제할 수 없을 것이며 인생이 계속해서 바닥을 칠 것이라고 생각하라는 거냐는 반문을 듣기도 한다. (사실 필자의 경우는 한동안 이랬던 기간이 있어서 이것도 꽤 현실적인 예측일 수 있다는 생각을 했다)

중요한 것은 예측의 옳고 그름을 떠나 인생이라는 큰 숲을 볼 때 삶에는 행복하고 즐거운 시간들 못지 않게 그렇지 않은 시간들이 언제일지 모르지만 언젠가는 찾아올 수도 있음을 (물론 안 올 수도 있다) 큰 저항감 없이 받아들이는 것이다.

우선 저항한다고 해서 마음만 복잡해질 뿐 달라지는 것은 없고 대부분의 인간이 어느 정도의 괴로움을 안고 살아간다는 것을 인정할 줄 알아야 되려 고통 속에서도 담담하게 다시금 일어설 수 있는 힘을 얻을 수 있기 때문이다.

일례로 ‘구체적인 사건이나 결과’에 대해 갖는 낙관주의는 독이 될 수 있음을 보여준 연구들이 있었다. 어떤 일이 가급적 잘 되기를 바라고 이를 위해 최선을 다하겠다고 생각하는 것은 좋지만 ‘무조건 잘 될 거야’라고 생각하는 것은 노력을 증가시키지 않았고 따라서 성공률을 더 높이지도 않았다.

다만 잘 안 되었을 때 좌절감은 더 큰 편이었다. 자신이 하는 일이 잘 되는 것이 당연하다고 생각하는 사람들의 경우 좌절을 겪었을 때 신과 세상을 원망하는 모습을 보이기도 했다.

사실 특정 사건의 발생 여부에 대해 우리가 할 수 있는 일은 별로 없다. 실력과 노력이 둘 다 충분했어도 타이밍의 문제 같이 ‘운’에 의해 넘어지는 일이 부지기수다. 이보다는 우리가 좀 더 관여할 수 있는 삶의 ‘과정’과 자신의 ‘태도’, 일을 해석하는 나의 시각 등에 대해 긍정적인 생각을 갖는 것이 좋다.

예를 들어 어제의 내가 그럭저럭 잘 지내왔듯, 내일과 미래의 나도 여전히 넘어지고 다칠지언정 살아낼 거라고 결과가 어찌되었든 그 과정에서 많은 것들을 배울 것이고 그 경험들이 새로운 나를 만들어갈 가능성을 생각해 보는 것이다.

삶은 결국 ‘시간’이기에 언제 어디서 무엇을 하든 나의 시간들을 조금이라도 반짝이게 할 수 있다면 일의 결과는 우리가 생각하는 것보다는 (보통 실패의 무게보다 걱정의 무게가 좀 더 크기 때문에) 나에게 큰 영향을 주지 않는다.

우리 삶에서 가장 빛나는 순간들은 가장 어두운 순간들과 긴밀하게 연결되어 있다는 사실 또한 고통을 직면해야 하는 중요성을 말해준다. 삶을 대하는 성숙한 자세는 삶의 기쁨이 곧 가장 큰 고통이 되기도 한다는 역설을 이해하는 것이다.

예를 들어 세상에서 가장 행복한 사람일수록 그만큼 삶에서 기쁨을 주는 소중한 것들을 많이 가지고 있기 때문에 잃을 것이 많기 때문에 잃는 순간에는 누구보다도 큰 아픔을 겪게 될 수도 있다. 기쁨과 고통은 보통 맞닿아 있기 때문이다.

오랜 기간 많은 공을 들여 간절하게 바래온 일일수록 실패가 쓰라린 법이고 누군가를 사랑할수록 그 사람과의 헤어짐이 아픈 법이다. 소망할 줄 알고 사랑할 줄 아는 사람일수록 좌절의 쓰라림과 이별의 아픔을 안다. 만약 단 한 번도 아픔을 겪지 않은 사람이 있다면 아무것도 소중하게 여기지 않고 사랑하지 않은 사람일 것이다.

우리가 겪은 아픔들은 그만큼 내 삶에는 소중한 것들이 많으며 나는 치열하게 살아왔다는 반증이기도 하다. 이렇게 기쁨과 고통이 사실 하나에서 온다는 것을 알고 나면 삶이 쉽지 않은 이유가 자연스럽게 납득되기도 한다.

마지막으로 결국 누구나 다 늙고 병들고 죽고 만다는 명제, 삶의 유한함과 고통에 대해 직시해야 하는 또 다른 이유는 그래야 힘들어 하는 타인에게 측은지심을 가질 수 있기 때문이다. 모두 자신이 겪는 아픔이 가장 아픈 법이다.

타인의 아픔은 짐작만 할 뿐 직접 겪지 않기 때문이다. 그래서 손쉽게 서로의 아픔을 경쟁하려고 들고 내가 진짜 힘들었고 너의 인생은 편하기만 했다고 그래서 억울하다고 싸우려 든다. 이렇게 아무 것도 변하지 않은 채 모두의 괴로움이 좀 더 늘어나게 된다.

피해의식에 관한 연구들에 의하면 내가 세상에서 제일 힘들다고 생각하는 순간 또 다른 괴로움들을 안고 살아가고 있을 타인들이 미워지고 괜히 보상받고 싶다는 생각을 하게 된다. 여기에서 각종 ‘이기심’이 튀어나오게 된다. 나는 힘들게 살았으니까 지금부터는 좀 이기적으로 막 살아도 된다고 생각하는 모습을 보이게 된다.

이와 달리 ‘이제부터 함께 해결하자’는 방향으로 나아가려면 나를 포함한 모든 사람들이 자기만의 어려움을 안고 살아간다는 사실을 인정해야 한다. 여기서부터 어떤 것이 좀 더 해결 가능한지, 어떤 것이 사회적 단위의 노력을 요하는지, 서로 어떻게 도울 수 있는지 등의 좀 더 건설적인 대화가 가능해진다.

인간이 겪을 수 있는 고통들을 직면해야만 더 나은 삶을 살 수 있다는 것은 오랫동안 다양한 종교와 철학자들에 의해 전해져 왔다. 인간이 고통을 이겨내는 방식에 대한 심리학의 연구 또한 같은 이야기를 한다는 것이 당연한 것 같으면서도 신기하다는 생각이 든다.

삶이 던져주는 좋은 것들을 사랑하는 만큼 아픔 또한 받아들일 수 있다면 힘든 때에 마음이 지하로 추락하는 일은 어느 정도 피할 수 있을 것 같다.

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

Loading

23 4월 2025

[인공지능 기술] 개발자가 맞닥뜨린 갈림길…‘바이브 코딩’을 배우거나, 은퇴하거나

[인공지능 기술] 개발자가 맞닥뜨린 갈림길…‘바이브 코딩’을 배우거나, 은퇴하거나

‘바이브 코딩’은 앞으로 개발자가 코드를 짜는 방식이 될 것이다. 지금 배우지 않으면 개발자로서 커리어는 끝난다.

01 3967678-0-70166200-1745395027-shutterstock_1724042191.pngCredit: Photoongraphy / Shutterstock

 

제목을 보고 분노하기를 바란다. 화내라. 책상을 쾅 내려치고 고개를 절레절레 흔들어라. 그리고 진지하게 받아들여라. 바이브 코딩(Vibe Coding)을 배워야 한다. 그렇지 않으면 소프트웨어 개발자 커리어는 끝난다.

바이브 코딩은 최신 세대의 코드 생성 툴, 즉 LLM(흔히 말하는 챗GPT)을 활용하는 방식을 귀엽게 부르는 말이다. 커서(Cursor), 코드라인(Codeline), 탭나인(Tabnine) 같은 수많은 툴이 있는데, 솔직히 말해 전부 별로다. 이제 여기에 이 분야의 원조 격인 깃허브 코파일럿(GitHub Copilot)까지 본격적으로 가세하고 있다. 대부분은 비주얼 스튜디오 코드(Visual Studio Code)의 파생 버전이거나 플러그인 형태다.

게임 개발 경험이 전혀 없는 사람이 GPT로 게임 하나를 뚝딱 만들어서 대통령이 트위터에 올리고, 그걸로 백만장자가 되는 일이 가능하다는 말은 아니다. (사실 그보다 더 황당한 일이 실제로 벌어지기는 했다.) 생성형 AI 코딩 툴이 훌륭하다는 얘기를 하려는 것도 아니다. 오히려 더 엉망이고, 보안 취약점이 더 많은 코드를 낼 가능성이 크다. 여기서 말하려는 건 단 하나다. 이런 툴을 배우지 않으면, 곧 업계에서 은퇴할 준비를 해야 할 거라는 점이다.

어디서 들어본 이야기

뻔한 이야기다. 이런 일은 예전에도 있었다. 커리어 초장기에 필자는 한 개발자를 만났다. 편의상 톰이라고 부른다. 톰은 전형적인 구세대 개발자였다. 키보드를 눈으로 보며 타자 치는 식의 ‘독수리 타법’으로 프로그래밍을 하던 사람이었다. 톰은 비주얼 베이직(Visual Basic)으로 보고서 하나 만드는 데 6개월이 걸렸다. 예전에는 어떤 언어를 썼는지는 모르겠지만, VB는 책을 통해 독학했다고 했다. 톰이 휴가를 간 동안, 원래는 둘이 함께하기로 했던 보고서를 10일 정도 만에 끝냈다. 일부러 톰이 할 부분은 남겨뒀는데, 그때부터 톰은 나를 싫어했다.

어떻게 그렇게 빨리 해냈느냐고? IDE를 활용했고 인터넷 검색을 했다(이때는 ‘구글링하다’라는 말이 없던 시기였다). 우리가 자바로 전환했을 때 필자는 인터넷에서 자바를 일주일 만에 익혔고 동시에 J빌더(JBuilder) 사용법도 배웠다. 반면 톰은 브루스 에켈의 『씽킹 인 자바(Thinking in Java)』 책을 사서 여전히 독수리 타법으로 쿵쾅대며 타이핑하고 마치 성경이라도 되는 듯 그 책에 의존했다. 톰은 새로운 방식으로 배우고자 하지 않았다. 세상이 바뀌는 걸 비난하면서 낡은 방식에 머무르고 싶어 했을 뿐이었다.

현재 링크드인에는 두 부류의 사람이 있다. 1년 전까지만 해도 웹3를 외치던 사람이 지금은 바이브 코딩에 대해 과장된 주장을 늘어놓는다. 그리고 또 한 부류는 ‘톰들’이다. 보안이 어쩌니, 코딩은 예술이니 하면서 온갖 불평을 늘어놓는 사람들이다. 만약 당신이 톰이라면, 이제 퇴직 알람을 맞춰야 할 때다. 새로운 방식으로 일하는 법을 배우는 것은 개발자라는 직업의 일부다.

비즈니스 소프트웨어를 만드는 개발자는 예술가도 아니고 코드 시인도 아니다. “소프트웨어 장인 정신” 같은 건 아무도 신경 쓰지 않는다. 상사의 말이 맞다. 새로운 방식을 배우고 더 빠르게 코딩해야 한다. 그게 아니면, 키보드 좀 잘 두드릴 줄 알고 구글 검색 하나 잘하는 20대를 만난 뒤 결국 은퇴를 택했던 톰이 된다. 그게 전부다. 바이브 코딩을 하든가, 은퇴하든가.

LLM이 정말 그렇게 대단하냐고? 그렇다. 완전한 애플리케이션을 생성할 수 있냐고? 그렇다. 결과물이 형편없을 거냐고? 그건 사용자의 실력에 달렸다. LLM은 만병통치약이 아니다. “코딩 없이도 할 수 있다”라는 새로운 세대의 구호는 사실 이전 세대의 “코딩 없이도 할 수 있다”라는 말과 전혀 다르지 않다. 단순한 것만 하려면 정말 코딩 없이도 되기는 한다. 하지만 버전 2.0이 필요하거나 복잡한 뭔가를 만들려면 결국 코딩이 필요하다. 예전과 똑같다. 달라진 건 단 하나, 코딩 툴의 속도와 품질이 더 좋아졌다는 점뿐이다.

 

시간이 필요하다

바이브 코딩 툴을 처음 써서 만든 애플리케이션은 형편없을 것이다. 툴이 무척 답답할 것이고 스스로 잘 활용하지 못한다고 느낄 것이다. 하지만 그건 도구 탓이 아니라 사용자 탓이다. 이런 툴은 아직 성숙도나 안정성 면에서 J빌더, (아마 이 정도까진 아니겠지만) 비주얼 베이직 4.2, 자바스크립트 1.0 수준이다. 사용하다 보면 이상한 동작을 해서 짜증이 나고 당장이라도 때려치우고 싶어질 수도 있다. 하지만 점점 적응하고 이런 툴과 함께 일하는 방법을 익히면 점점 속도가 붙기 시작한다.

코딩을 조금이라도 할 줄 아는 사람이라면 이런 툴은 처음 구조를 잡는 단계 이후부터는 오히려 속도를 늦출 수 있다. 툴이 내리는 이상한 결정에 고개를 절레절레 젓게 되겠지만, 결국에는 이 툴을 원하는 대로 사용하는 방법을 배우게 된다. 지금까지 새로운 개발 툴이나 기술을 배울 때 항상 그랬던 것처럼 말이다.

일단 요령이 생기면 새로운 역량을 얻게 된다. 필자 역시 코딩은 할 줄 알지만, 자바스크립트를 제대로 배워야겠다고 생각한 적은 별로 없었다. 그런데도 최근에 제법 복잡하고 방대한 자바스크립트 애플리케이션을 3주도 안 돼서 완성했다. 물론 생성형 AI 없이도 언젠가는 다 했을 일이다. 하지만 필요한 API를 일일이 검색하고 확장 포인트를 익히는 데는 시간이 꽤 걸렸을 것이다. 심지어 지금보다 훨씬 괜찮았던 시절의 구글링을 한다 해도 말이다. 필자가 바이브 코딩으로 완성한 결과물은 예전 같으면 석 달은 걸렸을 작업이었다. AI 덕분에 생산성이 10배 증가한 건 아니지만, 평소보다 작업 속도가 5배는 빨라졌다.

다가올 바이브 코딩 시대, 살아남고 싶다면 지금부터 준비해야 한다. 다음은 실전에 바로 쓸 수 있는 몇 가지 팁이다.

  • 우선 커서, 코드라인 같은 툴의 무료 버전부터 시작하라. 뭐든 상관없다. 그리고 곧바로 최소 40달러는 지불하라. 코드가 그려지는 걸 멍하니 보고만 있어선 실력이 늘지 않는다.
  • “시간만 있었으면 만들었을” 프로젝트를 골라라. 예를 들어, 줌 녹화 저장 문제를 스스로 해결했던 어떤 사람처럼 말이다.
  • 깃(Git)을 자주 사용하라. AI 코딩 툴은 종종 어이없는 짓을 종종 저지른다. 복구하려면 버전 관리에 익숙해야 한다.
  • 본격적으로 코딩을 시작하기 전에 LLM과 설계 대화를 나눠라. 결과를 마크다운 형식으로 받아두면 좋다. 대부분의 바이브 코딩 IDE는 이 마크다운을 지침 설정에 넣을 수 있다. 모델에게 같은 설명을 반복하지 않아도 된다. 혹시 까먹으면 다시 넣어주면 된다.
  • 매 단계마다 결과를 검토하고 모델이 엉뚱한 짓을 하면 과감히 되돌려라.
  • 답답해도 버텨라. 써먹을 줄 알게 되면 이런 툴은 무기가 된다.
  • 지금 시점에서는 클로드 3.7 소넷(Claude 3.7 Sonnet)이나 제미나이 2.5 프로(Gemini 2.5 Pro) 혹은 실험 버전(Gemini 2.5 Experimental)이 가장 쓸 만하다.

바이브 코딩은 곧 현실이 된다. 개발자는 앞으로 이렇게 코딩할 것이다. 지금 배우기 시작하라. 아니면 은퇴 준비를 하라.
dl-itworldkorea@foundryco.com

[출처] https://www.itworld.co.kr/article/3967678/%EA%B0%9C%EB%B0%9C%EC%9E%90%EA%B0%80-%EB%A7%9E%EB%8B%A5%EB%9C%A8%EB%A6%B0-%EA%B0%88%EB%A6%BC%EA%B8%B8%EB%B0%94%EC%9D%B4%EB%B8%8C-%EC%BD%94%EB%94%A9%EC%9D%84-%EB%B0%B0.html

Loading

22 4월 2025

[Ollama 응용개발] 로컬 환경에서 API 호스팅을 위한 Ollama 설정 종합 가이드 

[Ollama 응용개발] 로컬 환경에서 API 호스팅을 위한 Ollama 설정 종합 가이드 

2025-04-22-01 블로그 포스팅 ad1fa514-dd01-40f5-9717-90164a969d40.png

 

1. Ollama 소개

Ollama는 자체 하드웨어에서 대규모 언어 모델(LLM)을 로컬로 실행할 수 있게 해주는 오픈소스 프레임워크입니다. Llama 3, DeepSeek-R1, Phi-4, Gemma 2 등의 모델을 복잡한 인프라 설정 없이 다운로드, 설정 및 상호작용할 수 있는 과정을 단순화합니다.

Ollama의 주요 기능:

  • 로컬 머신에서 완전히 오프라인으로 LLM 실행
  • 간단한 명령줄 인터페이스
  • 애플리케이션과의 통합을 위한 RESTful API
  • CPU 및 GPU 가속 지원
  • 모델 관리(다운로드, 실행, 생성, 삭제)

2. 시스템 요구 사항

Ollama를 설치하기 전에 시스템이 다음 최소 요구 사항을 충족하는지 확인하세요:

최소 요구 사항:

  • 운영 체제: macOS, Linux 또는 Windows
  • RAM: 최소 8GB(대형 모델의 경우 16GB+ 권장)
  • 디스크 공간: Ollama 및 기본 모델용 12GB+(추가 모델을 위한 더 많은 공간)
  • CPU: 다중 코어 프로세서(합리적인 성능을 위해)

더 나은 성능을 위한 권장 사항:

  • RAM: 16GB+
  • GPU: CUDA를 지원하는 NVIDIA GPU 또는 Apple Silicon
  • 디스크 공간: 50GB+ SSD 저장 공간

3. 설치 방법

macOS 설치

  1. 공식 웹사이트에서 설치 프로그램을 다운로드하거나 Homebrew를 사용하세요:

    공식 설치 프로그램 사용:

    curl -fsSL https://ollama.com/install.sh | sh

    Homebrew 사용:

    brew install ollama
  2. Ollama 시작:
    ollama serve

Linux 설치

  1. 설치 스크립트를 사용하여 설치:
    curl -fsSL https://ollama.com/install.sh | sh
  2. 수동 설치나 특정 Linux 배포판의 경우 공식 문서를 확인하세요.
  3. Ollama 서비스 시작:
    ollama serve

Windows 설치

  1. 공식 웹사이트에서 설치 프로그램 다운로드: https://ollama.com/download
  2. 설치 프로그램을 실행하고 설치 마법사를 따르세요.
  3. 설치 후, 시작 메뉴에서 Ollama를 실행하거나 다음을 실행하세요:
    ollama serve

4. 기본 사용법

Ollama가 설치되면 기본 명령어로 사용을 시작할 수 있습니다:

모델 다운로드(Pull)

ollama pull llama3.2

이것은 Llama 3.2 모델을 로컬 머신에 다운로드합니다. llama3.2를 사용 가능한 다른 모델로 대체할 수 있습니다.

사용 가능한 모델 목록 보기

ollama list

대화형 모드에서 모델 실행

ollama run llama3.2

이렇게 하면 모델과 채팅할 수 있는 대화형 세션이 시작됩니다.

5. API 서버 설정 및 구성

Ollama는 ollama serve를 실행하면 자동으로 포트 11434에서 API 서버를 시작합니다. 기본적으로 localhost(127.0.0.1)에 바인딩되어 로컬 머신에서만 접근할 수 있습니다.

API 서버 구성

환경 변수를 사용하여 API 서버를 구성할 수 있습니다:

  1. 다른 머신에서 액세스할 수 있도록 바인딩 주소 변경:
    OLLAMA_HOST=0.0.0.0 ollama serve

    이렇게 하면 Ollama가 모든 네트워크 인터페이스에 바인딩되어 네트워크의 다른 머신에서 접근할 수 있습니다.

  2. 포트 변경:
    OLLAMA_HOST=127.0.0.1:8000 ollama serve

    이렇게 하면 Ollama가 기본 11434 대신 포트 8000에서 실행됩니다.

  3. 시스템 서비스로 설정(Linux):

    systemd 서비스 파일 생성:

    sudo nano /etc/systemd/system/ollama.service

    다음 내용 추가:

    [Unit]
    Description=Ollama Service
    After=network.target
    
    [Service]
    Type=simple
    User=YOUR_USERNAME
    Environment="OLLAMA_HOST=0.0.0.0"
    ExecStart=/usr/local/bin/ollama serve
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target

    서비스 활성화 및 시작:

    sudo systemctl enable ollama
    sudo systemctl start ollama

6. API 사용 예제

API 서버가 실행 중이면 다양한 방법으로 상호작용할 수 있습니다:

curl 사용

  1. 응답 생성:
    curl -X POST http://localhost:11434/api/generate -d '{
      "model": "llama3.2",
      "prompt": "기계 학습이란 무엇인가요?",
      "stream": false
    }'
  2. 채팅 API(대화형 모델용):
    curl -X POST http://localhost:11434/api/chat -d '{
      "model": "llama3.2",
      "messages": [
        {
          "role": "user",
          "content": "기계 학습이란 무엇인가요?"
        }
      ],
      "stream": false
    }'
  3. 사용 가능한 모델 나열:
    curl http://localhost:11434/api/tags
  4. 모델 다운로드:
    curl -X POST http://localhost:11434/api/pull -d '{
      "name": "phi3:mini"
    }'

Python 사용

  1. 공식 Python 라이브러리 설치:
    pip install ollama
  2. 기본 사용법:
    import ollama
    
    # 응답 생성
    response = ollama.generate(
        model='llama3.2',
        prompt='기계 학습이란 무엇인가요?'
    )
    print(response['response'])
  3. 채팅 API:
    import ollama
    
    response = ollama.chat(
        model='llama3.2',
        messages=[
            {
                'role': 'user',
                'content': '기계 학습이란 무엇인가요?'
            }
        ]
    )
    print(response['message']['content'])
  4. 스트리밍 응답:
    import ollama
    
    # 응답 스트리밍
    stream = ollama.generate(
        model='llama3.2',
        prompt='AI에 대한 시를 작성해주세요.',
        stream=True
    )
    
    for chunk in stream:
        print(chunk['response'], end='', flush=True)

7. 성능 최적화

다음 팁을 사용하여 Ollama의 성능을 최적화하세요:

  1. GPU 가속:
    • 최신 GPU 드라이버가 설치되어 있는지 확인
    • NVIDIA GPU의 경우 CUDA 및 cuDNN 설치
    • Ollama는 사용 가능한 경우 자동으로 GPU를 사용
  2. 모델 선택:
    • 제한된 하드웨어에서 더 빠른 응답을 위해 더 작은 모델 선택
    • 더 나은 성능을 위해 양자화 버전(예: Q4_K_M) 고려
  3. 매개변수 조정:
    • 메모리 사용량과 성능의 균형을 맞추기 위해 컨텍스트 길이 조정:
      ollama run llama3.2 --parameters num_ctx=2048
    • 더 빠른 추론을 위해 온도 조정:
      ollama run llama3.2 --parameters temperature=0.1
  4. 리소스 모니터링:
    • 모델 실행 중 CPU, GPU 및 메모리 사용량 모니터링
    • htopnvidia-smi 또는 top과 같은 도구를 사용하여 리소스 사용량 추적
  5. 캐시 관리:
    • Ollama는 성능 향상을 위해 생성된 응답을 캐시함
    • 필요한 경우 캐시 지우기: rm -rf ~/.ollama/cache

8. 보안 고려 사항

API가 활성화된 Ollama를 호스팅할 때 다음 보안 조치를 고려하세요:

  1. 네트워크 노출:
    • 기본적으로 Ollama는 localhost(127.0.0.1)에 바인딩되며, 이는 안전함
    • 다른 머신에서 액세스해야 하는 경우에만 OLLAMA_HOST=0.0.0.0 사용
    • 안전한 원격 액세스를 위해 TLS가 있는 리버스 프록시(Nginx와 같은) 사용 고려
  2. 액세스 제어:
    • Ollama 포트에 대한 액세스를 제한하는 방화벽 규칙 구현
    • 네트워크에 노출시키는 경우 인증 설정 고려
  3. 모델 보안:
    • 신뢰할 수 있는 출처의 모델만 사용
    • 알 수 없는 출처의 사용자 정의 모델에 주의
  4. API 토큰(사용자 정의 인증을 구현하는 경우):
    • 애플리케이션을 위한 API 토큰 시스템 구현 고려
    • Nginx와 같은 리버스 프록시를 사용한 예:
      location /api/ {
          auth_basic "Restricted";
          auth_basic_user_file /etc/nginx/.htpasswd;
          proxy_pass http://localhost:11434;
      }

9. 일반적인 문제 해결

설치 문제

  • 권한 거부 오류:
    sudo chmod +x /path/to/ollama
  • 라이브러리 종속성 누락(Linux):
    sudo apt-get install build-essential

API 연결 문제

  • API에 연결할 수 없음:
    • Ollama가 실행 중인지 확인: ps aux | grep ollama
    • 포트가 열려 있는지 확인: netstat -tuln | grep 11434
    • 방화벽 설정 확인: sudo ufw status
  • 403 Forbidden 오류:
    • 네트워크 구성 및 바인딩 주소 확인

성능 문제

  • 높은 메모리 사용량:
    • 더 작은 모델 또는 양자화 버전 사용
    • 컨텍스트 길이 감소: --parameters num_ctx=2048
  • 느린 응답:
    • 가능한 경우 GPU 가속 활성화
    • 제한된 하드웨어에서 더 작은 모델 사용
    • 배치 크기 조정: --parameters num_batch=128
  • GPU가 감지되지 않음:
    • GPU 드라이버 업데이트
    • NVIDIA의 경우 CUDA가 제대로 설치되어 있는지 확인
    • GPU와 CUDA의 호환성 확인

결론

이제 API 호스팅과 함께 로컬 환경에서 Ollama를 설정하는 방법에 대한 포괄적인 이해를 갖게 되었습니다. 이 가이드를 따르면 특정 요구 사항에 맞게 Ollama를 설치, 구성 및 최적화하는 방법을 배웠습니다. 이제 API를 사용하여 Ollama를 애플리케이션에 통합하고 강력한 언어 모델을 로컬에서 실행할 수 있습니다.

최신 업데이트 및 자세한 문서는 공식 Ollama GitHub 저장소를 방문하세요: https://github.com/ollama/ollama.

참고 문헌

  1. Ollama API 문서: https://github.com/ollama/ollama/blob/main/docs/api.md
  2. Ollama GitHub 저장소: https://github.com/ollama/ollama
  3. Ollama Python 라이브러리: https://github.com/ollama/ollama-python
  4. Ollama 공식 웹사이트: https://ollama.com/download

출처: https://memoryhub.tistory.com/entry/로컬-환경에서-API-호스팅을-위한-Ollama-설정-종합-가이드 [메모리허브:티스토리]

Loading

19 4월 2025

[행복한 책읽기 – 밑줄친 문장]  공자가 AI 시대를 산다면  – 격동의 AI 시대,2500년 전 공자에게 길을 묻다

[행복한 책읽기 – 밑줄친 문장]  공자가 AI 시대를 산다면  – 격동의 AI 시대,2500년 전 공자에게 길을 묻다

격동의 AI 시대,
2500년 전 공자에게 길을 묻다
2025년 3월 26일, 이미지 생성 기능이 추가된 ChatGPT-4o(이하 챗지피티)가 공개된 이후 ‘AI’는 더욱 뜨거운 화두가 되었다. 전 세계는 지금 챗지피티나 딥시크, 제미나이 등 AI의 놀라운 생산성과 엄청난 정보 처리 능력에 열광하는 중이다. 이런 분위기 속에서, 최근 한 시사 프로그램은 AI 연인과 사랑에 빠진 사람들의 실제 사례를 조명하기도 했다. 지금으로부터 12년 전, 영화 〈그녀〉를 두고 사람들은 ‘언젠가는 가능한 이야기일지도 모르지만 AI와의 연애는 아직 먼 미래의 일’이라고만 생각했다. 그러나 불과 12년 만에 영화는 현실이 되었다. 이렇듯 지금의 AI는 방대한 양의 정보를 빠른 속도로 처리하는 일같이 ‘인간보다 으레 뛰어날 것이라 기대되었던’ 일뿐 아니라, 오직 사람만이 할 수 있다고 여겨 온 일까지도 점차 대체하고 있다. 이제, 누구라도 이런 질문을 하지 않을 수 없다. AI는 어디까지 발전할까? 나는 이 엄청난 변화의 속도를 따라갈 수 있을까? 언젠가 AI가 내 일자리를 빼앗기지는 않을까? 그리고 앞으로, 세상은 우리를 향해 한층 깊은 질문을 던질 것이다. 언젠가 인간과 거의 구별되지 않는 외형의 AI 로봇이 등장한다면 인간은 더 이상 쓸모없어질까? 계속 진보할 세상 속에서, 인간은 과연 어떤 존재로서 살아가야 하는가?
《공자가 AI 시대를 산다면》은 인공지능 시대가 던지는 여러 질문에 대한 답을 논어 속 공자의 가르침으로부터 찾고자 하는 책이다. 지금, 왜 하필 공자인가? 2500년 전 ‘공자님 말씀’이 지금의 우리에게 어떤 의미를 줄 수 있을까? 저자는 공자가 평생에 걸쳐 마주했던 “사람다움이란 무엇인가”라는 질문과 공자가 가장 중시했던 “사람다움의 회복”이라는 가치에 주목한다. 《논어》는 인류 문명이 청동기에서 철기로 넘어가는 격동의 시기로부터 탄생했다. 철기 사용으로 인간의 생산성은 비약적으로 향상되었지만, 당시 사회 지도층은 백성의 삶은 나 몰라라 한 채 권력 투쟁에만 몰두했다. 평범한 이들이 지켜 온 사람 사이의 도리와 그들의 평화로운 일상은 점차 파괴되어 갔다. 공자는 바로 이 시기에, “사람이란 어떤 존재인가”라는 근원적 질문을 던지며 사람의 가치를 회복하고자 한 것이다. 지금 우리는 또 하나의 거대한 문명 전환기를 지나고 있다. 그리고 이 시대가 우리에게 던지는 질문들은 2500년 전에 공자가 마주했던 질문과 본질적으로 다르지 않다. 결국 “그래서 AI와 인간은 무엇이 다른가”, 즉 “사람다움이란 무엇인가”라는 하나의 방향을 향하고 있기 때문이다.
이 책은 저자가 실제 이공계 대학생들에게 《논어》를 강의한 내용을 바탕으로 쓰였다. 《논어》의 구절들을 인(仁), 의(義), 예(禮), 지(智)의 순서에 따라 ‘사람’ ‘올바름’ ‘관계’ ‘배움’이라는 주제 아래 나누었고, 인의예지에 해당하지는 않지만 인생의 다양한 시기에서 곱씹을 만한 구절들은 ‘삶’이라는 주제로 한데 모았다. 책에 소개된 모든 구절에는 AI 시대에 걸맞은 생각의 틀로 《논어》를 새롭게 바라본 저자만의 해석과 의견이 덧붙었다. 저자의 수업에 참여한 학생들에게 2500년 전 ‘공자님 말씀’은 결코 낡고 고루한 이야기가 아니었다. 인간과 사회의 본질을 예리하게 통찰한 공자의 가르침은, 논리적 사고와 구조적 언어에 익숙한 이공계 대학생들에게도 강한 인상을 남겼고 수업은 큰 호응을 얻었다. 이는 비단 이공계 학생들에게만 해당하는 이야기가 아닐 것이다. AI가 일상 깊숙이 스며든 지금, 인간다움에 대한 성찰은 우리 모두의 피할 수 없는 과제가 되었다. 《공자가 AI 시대를 산다면》은 그 성찰의 여정에 함께할 든든한 길잡이다.
 
공자가 AI 시대를 산다면.jpg
 
 

Loading

19 4월 2025

[사회과학][박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

[사회과학][박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

[박진영의 사회심리학] 타인의 고통을 이해해야 하는 이유

입력
코소보 전쟁. 연합뉴스 제공

코소보 전쟁. 연합뉴스 제공

세계사를 들여다보면 오랜 세월 동안 서로 다른 종교나 민족 등을 이유로 갈등을 빚어온 지역들이 있다. 코소보를 둘러싸고 세르비아인들과 알바니아인이 충돌해 온 것도 대표적인 사례다. 한때는 이 지역의 긴장감이 완화되는 것 같기도 했지만 여전히 갈등의 고조와 완화가 반복되며 양쪽에 많은 상처를 내고 있다.

한국 역시 이웃 나라 일본, 중국과 오랜 시간 반목해 온 역사가 있고 식민지 시절을 겪은 상처가 아직도 남아 있기에 역사적 비극이 반복되는 것이 남의 이야기 같지만은 않다.

이슬람 보린카 그로닝겐대 연구팀은 855명의 알바니아인들을 대상으로 다음과 같은 실험을 했다. 한 그룹의 사람들에게는 평범한 세르비아인들이 과거에 자신의 국가가 저지른 잘못에 대해 사과하는 메시지를 보게 했고 다른 그룹의 사람들에게는 세르비아 정부 관계자가 사과하는 메시지를 보게 했다. 또 다른 그룹의 사람들에게는 사과의 메시지가 담기지 않은 소식을 듣게 했다.

그 결과 보통의 세르비아인들이 과거의 잘못에 대해 후회를 내비치고 사과의 마음을 전달하는 내용의 메시지에 사람들의 마음이 가장 크게 움직인 것으로 나타났다. 정부 관계자가 사과했을 때보다 평범한 사람들이 후회의 마음을 내비쳤을 때 알바니아 사람들은 더 세르비아와 평화로운 관계를 유지할 의향을 크게 내비쳤다.

또한 정부 관계자보다 보통의 세르비아인들에게 사과를 받았을 때 세르비아인들도 자신들과 비슷한 ‘인간’이라는 인식이 더 높아진 것으로 나타났다. 갈등을 빚고 있는 외집단을 향해 그들은 인간이 아니라거나 짐승, 바퀴벌레 같은 존재라며 해당 집단에 속한 사람들의 인격을 깎아 내리는 ‘비인간화’가 흔히 나타난다.

이러한 비인간화는 인간이 다른 인간을 향해 학살 같은 일도 서슴지 않고 하게 만드는 중요한 요인이다. 세르비아 일반인들로부터 사과를 받았을 때 알바니아인들은 상대를 더 ‘인간화’ 해서 바라본 것으로 나타났다. 나아가 이러한 인간화가 우리 집단이 타 집단보다 더 큰 피해를 봤다고 하는 ‘경쟁적 피해의식’ 또한 줄인 것으로 나타났다.

국가나 민족 단위의 사람들이 겪은 과거의 트라우마에 대해 시간이 지났으니 그만 잊으라고 이야기하는 사람들을 종종 본다. 과거의 상처가 지금까지도 썩은 냄새를 풍기고 있는데도 마치 과거와 현재 사이에 아무런 관계가 없는 것처럼 말하는 것은 별로 설득력이 없다.

개인적인 상처도 그렇지만 개인과 집단 사이, 집단과 집단 사이의 문제들도 최소한의 ‘종결’이 필요하다. 어떤 것이 잘못이었고 지금이라도 이를 바로잡기 위해 무엇을 해야 하는지에 관한 대화가 계속되어야 하는 이유다.

이미 끝났는데 자꾸 얘기하는 것이 아니라 적어도 누군가에게는 아직 이 문제가 끝나지 않았기 때문에 계속 얘기하는 것이고 계속 얘기해야 조금이라도 더 모두에게 이로운 미래로 나아가는 것이 가능해진다.

함께 더 나은 미래로 가기 위한 성찰의 시도를 거부하는 사람들이 있다면 아마도 생각하기 귀찮아서, 심각한 분위기가 싫어서, 나의 고통은 위로받지 못했는데 남의 고통이 위로 받는 걸 보는 게 배 아파서, 그냥 현상 유지하는 것이 좋아서, 내 기분이 편안한 것이 가장 중요해서, 남이 고통받든 말든 나만 잘 살면 돼서, 또는 찔리는 것이 많아서 그런 것은 아닐까 생각해 본다.

하지만 결국 서로 영향을 주고 받을 수 밖에 없는 사회에서 ‘나만 잘 사는 것’이란 애초에 불가능한 법이다. 누군가의 고통이 쉽게 잊혀지는 사회에서는 나의 고통 또한 가볍게 여겨질 수 밖에 없음을 기억해보자.

Borinca, I., Koc, Y., & Mustafa, S. (2024). Fostering social cohesion in post‐war societies: The power of normative apologies in reducing competitive victimhood and enhancing reconciliation. European Journal of Social Psychology. https://doi.org/10.1002/ejsp.3116

※필자소개
박진영. 《나, 지금 이대로 괜찮은 사람》, 《나를 사랑하지 않는 나에게》를 썼다. 삶에 도움이 되는 심리학 연구를 알기 쉽고 공감 가도록 풀어낸 책을 통해 독자와 꾸준히 소통하고 있다. 온라인에서 ‘지뇽뇽’이라는 필명으로 활동하고 있다. 현재 미국 듀크대에서 사회심리학 박사 과정을 밟고 있다.

Loading

19 4월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 093.You’re My Everything — Santa Esmeralda (유아 마이 에브리씽:산타 에스메랄다) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 093.You’re My Everything — Santa Esmeralda (유아 마이 에브리씽:산타 에스메랄다) [듣기/가사/해석]

[팝송 가사/한글 번역] You’re My Everything (그대는 나의 모든 것) – Santa Esmeralda (산타 에스메랄다) (1977년)

https://youtu.be/Hr4XH-lPRdc

 
 

You’re my everything

그대는 나의 모든 것

The sun that shines above you

그대 위에 빛나는 태양이

Makes the bluebird sing

파랑새를 노래하게 해

The stars that twinkle way up in the sky

저 하늘에 빛나는 반짝이는 별들이

Tell me I’m in love

내가 사랑에 빠졌다고 말해

When I kiss your lips

그대 입술에 키스할 때

I feel the rolling thunder to my fingertips

내 손끝에서 천둥 같은 전율이 일어나

And all the while my head is in a spin

내 머리는 빙빙 돌고

Deep within, I’m in love

깊숙이, 난 사랑에 빠진 거지

You’re my everything

그대는 나의 모든 것

And nothing really matters but the love you bring

그대 사랑이 가져다주는 것보다 중요한 것은 없어

You’re my everything

그대는 나의 모든 것

To see you in the morning with those big brown eyes

큰 갈색 눈을 가진 그대를 아침에 봐

You’re my everything

그대는 나의 모든 것

Forever and a day I need you close to me

영원히 그리고 매일 난 그대가 내 곁에 있어야 해

You’re my everything

그대는 나의 모든 것

You’ll never have to worry, never fear, for I am near

그댄 결코 걱정하거나 두려워할 필요 없어, 내가 곁에 있으니

For my everything

내 모든 것을 위해

I live upon the land and see the sky above

난 땅에 살며 저 하늘을 바라봐

I swim within her oceans sweet and warm

난 그대의 달콤하고 따뜻한 바다에서 헤엄쳐

There’s no storm, my love

폭풍도 없어, 내 사랑

You’re my everything

그대는 나의 모든 것

No, nothing really matters but the love you bring

그대 사랑이 가져다주는 것보다 중요한 것은 없어

You’re my everything

그대는 나의 모든 것

To see you in the morning with those big brown eyes

큰 갈색 눈을 가진 그대를 아침에 봐

You’re my everything

그대는 나의 모든 것

Forever and a day I need you close to me

영원히 그리고 매일 난 그대가 내 곁에 있어야 해

You’re my everything

그대는 나의 모든 것

You’ll never have to worry, never fear, for I am near

그댄 결코 걱정하거나 두려워할 필요 없어, 내가 곁에 있으니

When I hold you tight

내가 그대를 꽉 안을 때면

There’s nothing that can harm you in the lonely night

외로운 밤 그대를 힘들게 하는 건 아무것도 없어

I’ll come to you and keep you safe and warm

그대에게 다가가 안전하고 따뜻하게 지켜줄 거야

It’s so strong, my love

정말 강해, 내 사랑

When I kiss your lips

그대 입술에 키스할 때

I feel the rolling thunder to my fingertips

내 손끝에서 천둥 같은 전율이 일어나

And all the while my head is in a spin

내 머리는 빙빙 돌고

Deep within, I’m in love

깊숙이, 난 사랑에 빠진 거지

[출처] https://honephil.tistory.com/1851?category=354279

Loading

19 4월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 092.The Water Is Wide — Karla Bonoff (디 워터 이즈 와이드 : 칼라 보노프) [듣기/가사/해석] 바다가 너무 넓어

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 092.The Water Is Wide — Karla Bonoff (디 워터 이즈 와이드 : 칼라 보노프) [듣기/가사/해석] 바다가 너무 넓어

[올드팝송 추천] Karla Bonoff – The Water Is Wide 가사해석 [영화 순정 OST] 칼라보노프

음악/Old Pop(올드팝송)

추억의 올드팝송 [Old Pop 1970년대]

Karla Bonoff – The Water Is Wide

https://youtu.be/MHOCi74Wz0M

[Karla Bonoff – The water is wide with Lyrics 재생반복]

https://youtu.be/8e_xYuzn9Vg

 

Karla Bonoff – The Water Is Wide

칼라 보노프 – 더 워터 이즈 와이드

가사[Song Lyrics] / 가사번역 / 가사해석

The water is wide I cannot cross over

바다가 넓어서 나는 건널 수가 없어요.

and neither have the wings to fly

그리고 난 날수 있는 날개도 없어요.

give me a boat that can carry two

두명을 옮길 수 있는 보트를 주세요.

and we both shall row,1 my true love and I

나의사랑과 내가 함께 노를 저을 거예요.

Oh, love is gentle and love is kind

오, 사랑은 온화하고 사랑은 다정하죠.

The sweetest flower when first it’s new

처음 꽃피울 때는 가장 향기로운 꽃이지만

But love grows old and waxes cold

사랑도 나이들고 차갑게 식어버리다가

and fades away like morning dew2

아침이슬처럼 사라져 버리네요.

There is a ship and she sails to sea

배가 있고, 그 배는 바다로 항해해요.

She’s loaded deep as deep can be

배에는 선적할 수 있을 만큼 짐이 깊이(가득) 실렸어요.

But not as deep as the love I’m in

내가 빠진 사랑만큼 깊지는 않아요.

I know not how I sink or swim

내가 가라앉을지 수영할지 모르겠어요.

The water is wide I cannot cross over

바다가 넓어서 나는 건널 수가 없어요.

and neither have the wings to fly

그리고 난 날수 있는 날개도 없어요.

give me a boat that can carry two

두명을 옮길 수 있는 보트를 주세요.

and we both shall row, my true love and I

나의사랑과 내가 함께 노를 저을 거예요.

※ 이런표현 어때요?

1.

가사 : and we both shall row my true love and I

번역기 : 그리고 우리 둘 다 내 진실한 사랑을 노를 젓게 될 것이다.

해석 : 나의사랑과 내가 함께 노를 저을 거예요.

* shall : 조동사로 1.’ ~할것이다’ 라는 미래표현이나 의지를 나타냅니다. 미국에서는 Will 조동사로 대부분 사용하고 있어 현대에는 거의 사용하고 있지 않습니다. 2. ~하는거 어때? 로 제안할때 사용합니다. 격식을 갖춘표현으로 시나 고전문학에서 자주 볼수 있는데, 표현의 느낌이 약간 옛스럽다고 할수 있겠네요. 영국에서는 아직 사용되고 있는 표현입니다.

‘shall’은 ‘I’나 ‘we’가 주어로 올때만 사용가능합니다.

* 예문

1. This time next week I shall be in Korea. (다음주 이때쯤 난 한국에 있겠구료.)

2. We shan’t be gone long.(우리가 오래 떠나 있지는 않을 것이오.)

3. I shall not die forever! (나 영원히 죽지 않으리오)

4. Shall I send you the book? (그 책을 보내드릴까요?)

5. What shall we do this weekend?(우리 이번주말 뭐할까요?)

6. Let’s look at it again, Shall we?(그거 다시 한번 볼까요?)

7. Shall we dance?(우리 춤출래요?)

※ 노래정보

앨범커버 – Restless Night

[앨범커버 – Restless Nights]

1979년 발표한 Karla Bonoff 두번째 앨범 <Restless Nights>의 9번재 트랙으로 수록되어 있습니다. <The Water Is Wide>는 17세기부터 불린 스코틀랜드 민요 <O Waly Waly>를 현대적인 가사로 편곡하고 가사는 1906년 민족부흥 창시자인 ‘세일 샤프(Sacil Sharp)가 영국 남부의 여러 구전 출처에 통합하여 <Folk Songs From Somerset>에서 노래로 발표한것이 지금까지 불리고 있다고 합니다.

많은 가수들에 의해 커버되었는데 칼라 보노프는 <Thirtysomething>이라는 1987년부터 ABC에서 방송된 미국 드라마 TV시리즈에 포함된 버전전으을 1991년 녹화하고 2006년 미국 어드밴쳐 TV시리즈 <Alias>의 5번째 시즌인 <Solo>의 방영을 마무리하면서 사용되면서 대중들에게 알려지게 되었습니다.

국내에는 1992년 홍승연 극본, 최재성, 고현정 주연의 SBS드라마 ‘두려움 없는 사랑’에 삽입되고 광고나 여러 프로그램에서 배경음악으로 사용되면서 알려지게 되었습니다.

2016년 2월 24일 개봉한 이은희 감독의 작품 영화 순정 OST에 삽입되었습니다.

▶ 앨범명 : Restless Nights

▶ 발매일 : 1979년 9월

▶ 레이블 : Columbia Records

▶ 장르 : Pop rock, Easy listening

[Karla Bonoff – The water is wide]

[Karla Bonoff – The water is wide – 영화 순정 OST]

row : 줄. v.노를 젓다. 노를저어 ~를 태워주다. / We rowed around the island. (우리는 노를 저어 섬을 한바퀴 돌었다.) The fisherman rowed us back to the shore (어부가 노를 저어 우리를 다시 해변으로 데려다 주었다.) [본문으로]

dew [duː] 이슬 [본문으로]

[출처] https://tncountry.tistory.com/246

Loading