18 1월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 080. All for the love of a girl — Johnny Horton  [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 080. All for the love of a girl — Johnny Horton  [듣기/가사/해석]

 
 

 
Johnny Horton – All For The Love Of A Girl (가사와 해석)
         
 
 
Well, today I’m so weary.
Today I’m so blue,
Sad and broken-hearted.
And it’s all
because of you.
 
Life was so sweet, dear.
Life was a song.
Now you’ve gone and left me.
Oh, where do I belong?
And it’s all for the love
of a dear little girl,
All for the love
that sets your heart in a whirl.
I’m a man who’d give his life
and the joy of this world
All for the love of a girl.
* repeat
And it’s all for the love
of a dear little girl,
All for the love
that sets your heart in a whirl.
I’m a man who’d give his life
and the joy of this world
All for the love of a girl.
 
 
오늘 난 몹시 지쳤어요
너무 우울하고,
슬퍼서 마음이 아파요.
이 모든건
당신 때문이에요.
삶은 너무 달콤했어요, 그대여.
마치 노래와 같았죠.
이제 당신은 날 남겨두고 떠나버렸으니
오, 난 어디에 있어야 하나요.
이 모든 건 사랑스런
작은 소녀에 대한 사랑 때문이에요.
당신 마음을 소용돌이치게 만든
그 사랑 때문이에요.
난 한 소녀에 대한 사랑을 위해서는
내 생명과 이 세상의 즐거움을
기꺼이 바칠 수 있는 사람이에요.
* repeat
이 모든 건 사랑스런
작은 소녀에 대한 사랑 때문이에요.
마음을 소용돌이치게 만든
그 사랑 때문이에요.
난 한 소녀에 대한 사랑을 위해서는
내 생명과 이 세상의 즐거움을
기꺼이 바칠 수 있는 사람이에요
 
 
 
[출처] https://gasazip.tistory.com/994 [J.D.S.N:티스토리]

Loading

11 1월 2025

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 078. All By Myself — Eric Carmen (올 바이 마이셀프 : 에릭 카멘 or 셀린 디옹) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 078. All By Myself — Eric Carmen (올 바이 마이셀프 : 에릭 카멘 or 셀린 디옹) [듣기/가사/해석]

 
 
Eric Carmen (에릭 칼멘) – All By Myself (올 바이 마이 셀프)
 
 
‘All By Myself’는 1975년 11월에 발매된 미국의 싱어송라이터인 ‘에릭 카먼 (Eric Carmen)’의 솔로 1집 데뷔 앨범 [Eric Carmen] 수록곡이다.
 
 
 
앨범 수록곡인 ‘All By Myself’가 크게 히트를 하였고, ‘Never Gonna Fall in Love Again’와 ‘Sunrise’가 연달아 히트를 하며 신인으로서는 성공적인 데뷔를 하였다. 앨범 [Eric Carmen]은 빌보드 앨범 차트 21위를 기록하였다.
 
 
 
 
 
1975년 12월에 발매된 싱글곡 ‘All By Myself’는 러시아의 작곡가이자 피아니스트인 ‘세르게이 라흐마니노프 (Sergei Rachmaninoff)’의 피아노 협주곡 제2번 (Piano Concerto No. 2 in C minor, Opus 18)을 기반으로 만들어졌으며 노래의 후렴구는 1970년대 초반 ‘에릭 카먼’이 몸담고 있었던 록 밴드인 ‘라즈베리 (Raspberries)’의 히트곡인 ‘Let’s Pretend’에서 따온 것이다.
 
 
 
‘All By Myself’는 미국의 빌보드 싱글 차트 2위, 캐시 박스 1위, 레코드 월드 1위를 차지하였고, 캐나다 어덜트 컨템퍼러리 1위, 캐나다 싱글 차트 3위를 비롯해서 유럽과 아시아에서 크게 히트하였다. 국내에서도 꾸준하게 애청되고 있는 팝의 명곡이다.
 
 
 
‘All By Myself’는 캐나다 가수인 ‘셀린 디온 (Celine Dion)’이 1996년에 리메이크를 하여 다시 한번 세계적으로 크게 히트하였고, 빌보드 싱글 차트 4위, 빌보드 어덜트 컨템퍼러리 3주간 1위, 캐나다 어덜트 컨템퍼러리 1위 등을 기록하였다.
 
 
 
 
 
Eric Carmen – All By Myself [Song]
 
Eric Carmen – All By Myself
 
 
Eric Carmen – All By Myself [Live]
 
Eric Carmen – All By Myself
 

 
 
Celine Dion – All By Myself [MV]
 
Celine Dion – All By Myself
 

 

 
 
 
Eric Carmen – All By Myself [Album/1975]
Eric Carmen – All By Myself
 

01 All By Myself --- Eric Carmen 01.png

 
Celine Dion – All By Myself [Single/1996]
Celine Dion – All By Myself
 

02 All By Myself --- Eric Carmen 02.jpg

 
 
 
Eric Carmen (에릭 칼멘) – All By Myself (올 바이 마이 셀프) [가사/해석]
 
 
When I was young
 
I never needed anyone
And making love was just for fun
Those days are gone
 
나 젊었을 때는 아무도 필요하지 않았죠 
그저 재미를 위해서 사랑을 했었고요.
하지만 그런 날들은 이제 다 지나갔네요
 
 
 
Living alone
I think of all the friends I’ve known
But when I dial the telephone,
nobody’s home
 
혼자 살면서
내가 알고 지냈던
 
옛 친구들을 생각해봤어요.
하지만 친구들에게 전화를 걸 때면
아무도 집에 없더군요
 
All by myself, don’t wanna be
All by myself anymore
All by myself, don’t wanna live
All by myself anymore
 
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
 
Hard to be sure
sometimes I feel so insecure
And love so distant and obscure
remains the cure
 
확실한 건 아니지만
가끔씩은 너무나 불안할 때도 있어요
그리고, 너무나 멀리 떨어져 있어
 
불확실한 사랑은
내게 상처만을 남겼죠
 
All by myself, don’t wanna be
All by myself anymore
All by myself, don’t wanna live
All by myself anymore
 
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
 
When I was young
 
I never needed anyone
And making love was just for fun
Those days are gone
 
나 젊었을 때는 아무도 필요하지 않았죠
그저 재미를 위해서 사랑을 했었고요
하지만 그런 날들은 이제 다 지나갔네요
 
All by myself, don’t wanna be
All by myself anymore
All by myself, don’t wanna live
All by myself anymore
 
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
혼자 있고 싶지 않아요
더 이상 혼자 있고 싶지 않아요
 
[출처] https://w-music.tistory.com/entry/Eric-Carmen-%EC%97%90%EB%A6%AD-%EC%B9%B4%EB%A9%98-All-By-Myself-Celine-Dion-%EC%85%80%EB%A6%B0-%EB%94%94%EC%98%A8-All-By-Myself-%EA%B0%80%EC%82%AC%ED%95%B4%EC%84%9D%EB%93%A3%EA%B8%B0%EB%85%B8%EB%9E%98

Loading

29 11월 2024

[DeepLearning] Learning to generate lyrics and music with Recurrent Neural Networks : 순환 신경망을 사용하여 가사와 음악을 생성하는 방법 배우기

[DeepLearning] Learning to generate lyrics and music with Recurrent Neural Networks : 순환 신경망을 사용하여 가사와 음악을 생성하는 방법 배우기

순환 신경망을 사용하여 가사와 음악을 생성하는 방법 배우기

RNN 기반 생성 모델을 가사와 피아노 음악 생성에 적용한 사례를 보여주는 게시물입니다.


소개

이 게시물에서는 가장 인기 있는/최근 아티스트의 가사 데이터 세트에서 RNN 문자 수준 언어 모델을 학습합니다. 학습된 모델을 가지고 다양한 아티스트의 다양한 스타일을 재밌게 섞은 몇 곡을 샘플링합니다. 그런 다음 모델을 업데이트하여 조건부 문자 수준 RNN으로 만들어 아티스트에 따라 노래를 샘플링할 수 있습니다. 마지막으로 피아노 곡의 미디 데이터 세트에서 모델을 학습하여 마무리합니다. 이러한 모든 작업을 해결하는 동안 문자 수준 RNN, 조건부 문자 수준 RNN, RNN 샘플링, 시간에 따른 절단된 역전파 및 그래디언트 체크포인팅과 같은 RNN 학습 및 추론과 관련된 몇 가지 흥미로운 개념을 간략하게 살펴보겠습니다. 모든 코드와 학습된 모델은 github에서 사용할 수 있으며 Pytorch 로 구현되었습니다 . 블로그 게시물은 jupyter notebook 형식으로도 볼 수 있습니다 . 문자 수준 언어 모델과 순환 신경망에 익숙하다면 해당 섹션을 건너뛰거나 결과 섹션으로 바로 이동하세요.

문자 수준 언어 모델

PNG 파일

모델을 선택하기 전에, 우리의 과제를 자세히 살펴보겠습니다. 현재 문자와 이전의 모든 문자가 주어졌을 때, 우리는 다음 문자를 예측해 볼 것입니다. 훈련하는 동안 우리는 시퀀스를 취하고, 마지막 문자를 제외한 모든 문자를 입력으로 사용하고, 두 번째 문자에서 시작하는 동일한 시퀀스를 기준 진실로 사용할 것입니다(위의 그림 참조; 출처 ). 우리는 예측을 할 때 이전의 모든 문자를 무시하는 가장 간단한 모델에서 시작하여, 이 모델을 개선하여 특정 수의 이전 문자만 고려하도록 하고, 예측을 할 때 이전의 모든 문자를 고려하는 모델로 결론지을 것입니다.

우리의 언어 모델은 문자 수준에서 정의됩니다. 우리는 모든 영어 문자와 마침표, 쉼표, 줄 끝 기호와 같은 일부 특수 기호를 포함하는 사전을 만들 것입니다. 각 문자는 one-hot-encoded 텐서로 표현됩니다. 문자 수준 모델과 예제에 대한 자세한 내용은 이 리소스를 추천합니다 .

문자를 가지고 있으므로 이제 문자 시퀀스를 형성할 수 있습니다. 지금도 고정된 확률로 문자를 무작위로 샘플링하여 문장을 생성할 수 있습니다 . 이것이 가장 간단한 문자 수준 언어 모델입니다. 이것보다 더 나은 방법은 없을까요? 그렇습니다. 훈련 코퍼스에서 각 문자의 발생 확률(문자가 발생하는 횟수를 데이터 세트 크기로 나눈 값)을 계산하고 이러한 확률을 사용하여 문자를 무작위로 샘플링할 수 있습니다. 이 모델은 더 좋지만 각 문자의 상대적인 위치적 측면을 완전히 무시합니다. 예를 들어, 단어를 읽는 방법에 주의하세요. 첫 번째 문자부터 시작하는데, 이는 일반적으로 예측하기 어렵지만 단어의 끝에 도달하면 때때로 다음 문자를 추측할 수 있습니다. 단어를 읽을 때 다른 텍스트를 읽고 배운 일부 규칙을 암묵적으로 사용하고 있습니다. 예를 들어, 단어에서 읽는 문자가 하나 더 추가될 때마다 공백 문자의 확률이 증가하거나(정말 긴 단어는 드뭅니다) 문자 “r” 뒤에 자음이 올 확률은 일반적으로 모음 뒤에 오기 때문에 낮습니다. 비슷한 규칙이 많이 있고, 우리 모델이 데이터로부터 이를 학습할 수 있기를 바랍니다. 우리 모델이 이러한 규칙을 학습할 수 있는 기회를 주기 위해 모델을 확장해야 합니다.

모델을 조금씩 점진적으로 개선하고 각 문자의 확률을 이전에 발생한 문자에만 의존하도록 합시다( 마르코프 가정 ). 따라서 기본적으로 . 이것은 마르코프 연쇄 모델 입니다( 익숙하지 않다면 이러한 대화형 시각화 도 시도해 보세요). 또한 훈련 데이터 세트에서 확률 분포를 추정할 수 있습니다. 이 모델은 대부분의 경우 현재 문자의 확률이 이전 문자에만 의존하지 않기 때문에 제한적입니다.

우리가 모델링하고자 하는 것은 실제로 . 처음에는 이전 문자의 수가 가변적이고 긴 시퀀스의 경우 정말 커질 수 있기 때문에 작업이 난해해 보입니다. Reccurent Neural Netoworks는 공유 가중치와 고정 크기 숨겨진 상태를 사용하여 어느 정도 이 문제를 해결할 수 있는 것으로 밝혀졌습니다. 이는 RNN에 전념하는 다음 섹션으로 이어집니다.

순환 신경망

PNG 파일

순환 신경망은 순차적 데이터를 처리하기 위한 신경망 계열입니다. 피드포워드 신경망과 달리 RNN은 내부 메모리를 사용하여 임의의 입력 시퀀스를 처리할 수 있습니다. 임의의 크기의 입력 시퀀스로 인해 사이클이 있는 그래프로 간결하게 표현됩니다(그림 참조; 출처 ). 하지만 입력 시퀀스의 크기를 알면 “펼쳐질” 수 있습니다. 현재 입력 과 이전 숨겨진 상태 에서 출력 과 현재 숨겨진 상태 로의 비선형 매핑을 정의합니다 . 숨겨진 상태 크기는 미리 정의된 크기를 가지며 각 단계에서 업데이트되고 매핑 결과에 영향을 미치는 기능을 저장합니다.

이제 문자 수준 언어 모델의 이전 그림과 접힌 RNN 그림을 맞춰서 RNN 모델을 사용하여 문자 수준 언어 모델을 어떻게 학습하는지 살펴보겠습니다.

그림에서는 Vanilla RNN을 사용하고 있지만, 우리의 작업에서는 LSTM을 사용할 것입니다. 왜냐하면 훈련이 더 쉽고 보통 더 나은 결과를 얻을 수 있기 때문입니다.

RNN에 대한 더 자세한 소개는 다음 자료 를 참조하세요 .

가사 데이터 세트

실험을 위해 우리는 다양한 최신 아티스트와 더 오래된 아티스트를 포함하는 55,000개 이상의 노래 가사 Kaggle 데이터 세트를 선택했습니다 . 이는 판다스 파일로 저장되며, 훈련 목적으로 사용할 수 있도록 파이썬 래퍼를 작성했습니다. 코드를 사용하려면 직접 다운로드해야 합니다.

결과를 더 잘 해석하기 위해, 나는 내가 어느 정도 알고 있는 아티스트 하위 집합을 선택했습니다.

artists = [
'ABBA',
'Ace Of Base',
'Aerosmith',
'Avril Lavigne',
'Backstreet Boys',
'Bob Marley',
'Bon Jovi',
'Britney Spears',
'Bruno Mars',
'Coldplay',
'Def Leppard',
'Depeche Mode',
'Ed Sheeran',
'Elton John',
'Elvis Presley',
'Eminem',
'Enrique Iglesias',
'Evanescence',
'Fall Out Boy',
'Foo Fighters',
'Green Day',
 'HIM',
 'Imagine Dragons',
 'Incubus',
 'Jimi Hendrix',
 'Justin Bieber',
 'Justin Timberlake',
'Kanye West',
 'Katy Perry',
 'The Killers',
 'Kiss',
 'Lady Gaga',
 'Lana Del Rey',
 'Linkin Park',
 'Madonna',
 'Marilyn Manson',
 'Maroon 5',
 'Metallica',
 'Michael Bolton',
 'Michael Jackson',
 'Miley Cyrus',
 'Nickelback',
 'Nightwish',
 'Nirvana',
 'Oasis',
 'Offspring',
 'One Direction',
 'Ozzy Osbourne',
 'P!nk',
 'Queen',
 'Radiohead',
 'Red Hot Chili Peppers',
 'Rihanna',
 'Robbie Williams',
 'Rolling Stones',
 'Roxette',
 'Scorpions',
 'Snoop Dogg',
 'Sting',
 'The Script',
 'U2',
 'Weezer',
 'Yellowcard',
 'ZZ Top']

무조건 문자 수준 언어 모델 훈련

우리의 첫 번째 실험은 전체 코퍼스에서 문자 수준 언어 모델 RNN을 훈련하는 것으로 구성되었습니다. 훈련하는 동안 아티스트 정보는 고려하지 않았습니다.

RNN에서 샘플링

모델을 훈련한 후 몇 곡을 샘플링해 보겠습니다. 기본적으로 RNN은 각 단계에서 로짓을 출력하고 이를 소프트맥스하여 해당 분포에서 샘플링할 수 있습니다. 또는 Gumble-Max 트릭을 사용하여 로짓을 직접 샘플링 할 수도 있는데 이는 동일합니다.

샘플링에 대한 흥미로운 점 하나는 우리가 입력 시퀀스를 부분적으로 스스로 정의하고 그 초기 조건으로 샘플링을 시작할 수 있다는 것입니다. 예를 들어, “Why”로 시작하는 노래를 샘플링할 수 있습니다.

Why do you have to leave me?  
I think I know I'm not the only one  
I don't know if I'm gonna stay awake  
I don't know why I go along  
  
I don't know why I can't go on  
I don't know why I don't know  
I don't know why I don't know  
I don't know why I keep on dreaming of you   

음, 그럴 법한 노래네요 😀

“Well”로 시작하는 노래로 샘플링해 보겠습니다.

Well, I was a real good time  
I was a rolling stone  
I was a rock and roller  
Well, I never had a rock and roll  
There were times I had to do it  
I had a feeling that I was found  
I was the one who had to go  

샘플링 중에 사용되는 “온도” 매개변수가 있는데, 이는 샘플링 프로세스의 무작위성을 제어합니다. 이 매개변수가 0에 가까워지면 샘플링은 argmax와 동일하고 무한대에 가까워지면 샘플링은 균일한 분포에서 샘플링하는 것과 동일합니다. Jang et al.의 관련 논문 에서 그림을 살펴보세요 .

PNG 파일

, 분포는 영향을 받지 않습니다. 를 감소시키면 분포가 더 두드러지게 되며, 이는 더 큰 확률 질량을 가진 값이 증가한다는 것을 의미합니다. 를 0에 가까워지면 샘플링 은 armax와 동일해지므로 해당 값의 확률이 1에 가까워집니다. 를 증가시키기 시작하면 분포가 점점 더 균일해집니다.

이전 샘플은 온도 매개변수가 . 와 같도록 생성되었습니다. . 로 늘리면 어떻게 되는지 살펴보겠습니다 . 샘플:

Why can't we drop out of time?  
We were born for words to see.  
Won't you love this. You're still so amazing.  
This could be that down on Sunday Time.  
Oh, Caroline, a lady floor.  
I thought of love, oh baby.  

좀더 늘려보도록 하죠.

Why - won't we grow up naked?  
We went quietly what we would've still give  
That girl you walked before our bedroom room  
I see your mind is so small to a freak  
Stretching for a cold white-heart of crashing  
Truth in the universal daughter  
  
I lose more and more hard  
I love you anytime at all  
Ah come let your help remind me  
Now I've wanted waste and never noticed  
  
I swear I saw you today  
You needed to get by  
But you sold a hurricane  
Well out whispered in store

사실, 왜 우리는 벌거벗고 자라지 않을까요? 😀 온도가 높아질수록 샘플링된 문장이 점점 더 무작위적이 되는 추세를 볼 수 있죠.

조건부 문자 수준 언어 모델 훈련

특정 아티스트의 스타일로 가사를 생성할 수 있다고 상상해보세요. 모델을 변경하여 훈련 중에 이 정보를 사용할 수 있도록 합시다.

우리는 RNN에 추가 입력을 추가하여 이를 수행할 것입니다. 지금까지 우리의 RNN 모델은 각 단계에서 원핫 인코딩된 문자가 포함된 텐서만 허용했습니다.

우리 모델의 확장은 매우 간단할 것입니다. 아티스트를 나타내는 추가 원핫 인코딩 텐서가 있을 것입니다. 따라서 각 단계에서 RNN은 캐릭터와 아티스트를 나타내는 연결된 텐서로 구성되는 텐서 하나를 허용합니다. 자세한 내용은 여기를 참조하세요 .

조건 언어 모델 RNN에서 샘플링

훈련 후, 우리는 아티스트에 따라 몇 곡을 샘플링했습니다. 아래에서 몇 가지 결과를 찾을 수 있습니다.

그를:

My fears  
And the moment don't make me sing  
So free from you  
The pain you love me yeah  
  
Whatever caused the warmth  
You smile you're happy  
You sit away  
You say it's all in vain  

실제로 가능해 보이는데, 특히 ‘고통’이라는 단어가 사용됐기 때문입니다. 이 단어는 아티스트의 가사에서 매우 흔하게 쓰입니다.

아바:

Oh, my love it makes me close a thing  
You've been heard, I must have waited  
I hear you  
So I say  
Thank you for the music, that makes me cry  
  
And you moving my bad as me, ah-hang wind in the hell  
I was meant to be with you, I'll never be playing up

밥 말리:

Mercy on judgment, we got so much  
  
Alcohol, cry, cry, cry  
Why don't try to find our own  
I want to know, Lord, I wanna give you  
Just saving it, learned  
Is there any more?  
  
All that damage done  
That's all reason, don't worry  
Need a hammer  
I need you more and more  

콜드플레이:

Look at the stars  
Into life matter where you lay  
Saying no doubt  
I don't want to fly  
In my dreams and fight today

I will fall for you  
  
All I know  
And I want you to stay  
Into the night  
  
I want to live waiting  
With my love and always  
Have I wouldn't wasted  
Would it hurt you

카니예 웨스트:

I'm everywhere for you  
The way that it couldn't stop  
I mean it too late and love I made in the world  
I told you so I took the studs full cold-stop  
The hardest stressed growin'  
The hustler raisin' on my tears  
I know I'm true, one of your love

꽤 멋져 보이지만 검증 정확도를 추적하지 않았기 때문에 일부 샘플링된 라인은 rnn에서 기억했을 수도 있다는 점을 명심하세요.더 나은 방법은 훈련 중에 가장 좋은 검증 점수를 제공하는 모델을 선택하는 것입니다(이런 방식으로 훈련을 수행한 다음 섹션의 코드 참조).또한 흥미로운 사실 ​​하나를 발견했습니다.무조건 모델은 일반적으로 지정된 시작 문자열로 샘플링할 때 더 나은 성능을 보입니다.지정된 시작 문자열로 조건부 모델에서 샘플링할 때 실제로 모델에 두 가지 조건(시작 문자열과 아티스트)을 적용한 반면, 이전에 탐색한 모델의 경우 하나의 조건만 적용했습니다.그리고 그 조건부 분포를 잘 모델링할 만큼 충분한 데이터가 없었습니다(모든 아티스트가 비교적 제한된 수의 노래를 가지고 있음).

우리는 코드와 모델을 공개하고 있으며, GPU 없이도 훈련된 모델에서 노래를 샘플링할 수 있습니다. 이는 실제로 컴퓨팅 측면에서 많은 요구가 없기 때문입니다.

미디 데이터 세트

다음으로, 우리는 대략 피아노 곡으로 구성된 작은 미디 데이터세트 로 작업할 것입니다 . 우리는 피아노 데이터세트(트레이닝 분할만)를 사용했습니다 .Nottingam

모든 미디 파일을 피아노 롤로 변환 할 수 있다는 것이 밝혀졌습니다. 피아노 롤은 각 행이 다른 미디 피치이고 각 열이 시간적으로 다른 슬라이스인 시간-주파수 행렬입니다. 따라서 데이터 세트의 각 피아노 곡은 크기의 행렬로 표현되며 , 여기서 는 피아노의 피치 수입니다. 피아노 롤 행렬의 예는 다음과 같습니다.

PNG 파일

이 표현은 음악 이론에 익숙하지 않은 사람이라도 매우 직관적이고 해석하기 쉽습니다. 각 행은 피치를 나타냅니다. 위쪽 행은 저주파 피치를 나타내고 아래쪽 행은 고주파 피치를 나타냅니다. 게다가 시간을 나타내는 수평축이 있습니다. 따라서 특정 피치의 사운드를 특정 시간 동안 연주하면 수평선이 표시됩니다. 전반적으로 이는 유튜브의 피아노 튜토리얼 과 매우 유사합니다 .

이제 문자 수준 모델과 새로운 작업의 유사점을 살펴보겠습니다. 현재의 경우 이전에 연주된 모든 피치를 고려하여 다음 타임스텝에서 연주될 피치를 예측해야 합니다. 피아노 롤 그림을 보면 각 열은 어떤 종류의 음악적 캐릭터를 나타내며 이전의 모든 음악적 캐릭터를 고려하여 다음 음악을 예측하려고 합니다. 텍스트 문자와 음악적 캐릭터의 차이점에 주의해 보겠습니다. 기억하시겠지만 언어 모델의 각 캐릭터는 원핫 벡터로 표현되었습니다(즉, 벡터에서 하나의 값만 이고 다른 값은 입니다 ). 음악적 캐릭터의 경우 한 타임스텝에서 여러 키를 누를 수 있습니다(다성음 데이터 세트로 작업하고 있기 때문입니다). 이 경우 각 타임스텝은 두 개 이상의 를 포함할 수 있는 벡터로 표현됩니다 .

피치 레벨 피아노 음악 모델 훈련

학습을 시작하기 전에, 이전 섹션에서 논의한 다양한 입력을 설명하기 위해 언어 모델에 사용한 손실을 조정해야 합니다. 언어 모델에서, 각 타임스텝에 대한 입력으로 원-핫 인코딩된 텐서(문자)를 사용했고, 출력(예측된 다음 문자)으로 원-핫 인코딩된 텐서를 사용했습니다. 예측된 다음 문자에 대해 단일 배타적 선택을 해야 했기 때문에, 교차 엔트로피 손실을 사용했습니다 .

하지만 이제 우리 모델은 더 이상 원핫 인코딩(여러 키를 누를 수 있음)이 아닌 벡터를 출력합니다. 물론, 눌린 키의 모든 가능한 조합을 별도의 클래스로 처리할 수 있지만, 이는 어렵습니다. 대신 출력 벡터의 각 요소를 이진 변수( – 누름, – 키를 누르지 않음)로 처리합니다. 출력 벡터의 각 요소에 대한 별도의 손실을 이진 교차 엔트로피로 정의합니다. 그리고 최종 손실은 이러한 이진 교차 엔트로피의 평균 합계가 됩니다. 더 잘 이해하기 위해 코드를 읽을 수도 있습니다.

앞서 언급한 변경 사항을 적용한 후, 우리는 모델을 훈련했습니다. 다음 섹션에서는 샘플링을 수행하고 결과를 검사합니다.

피치 레벨 RNN에서 샘플링

우리는 최적화 초기 단계에서 피아노 롤을 샘플링했습니다.

PNG 파일

우리 모델이 데이터 세트의 노래에서 공통적으로 나타나는 하나의 공통 패턴을 학습하기 시작한 것을 볼 수 있습니다. 각 노래는 두 개의 다른 부분으로 구성되어 있습니다. 첫 번째 부분에는 별도로 연주되고 매우 구별되며 종종 부를 수 있는 피치 시퀀스가 ​​포함되어 있습니다 (멜로디라고도 함). 샘플링된 피아노 롤을 보면 이 부분이 하단에서 명확하게 보입니다. 피아노 롤의 상단도 보면 일반적으로 함께 연주되는 피치 그룹이 보입니다. 이것은 멜로디를 동반하는 화음(노래 전체에서 함께 연주되는 피치)의 진행 또는 하모니입니다.

훈련이 끝날 무렵 우리 모델에서 추출한 샘플은 다음과 같이 보이기 시작했습니다.

PNG 파일

보시다시피 이는 이전 섹션에서 보여드린 실제 피아노 롤 사진과 더욱 유사해 보이기 시작했습니다.

훈련 후, 우리는 노래를 샘플링하고 분석했습니다. 흥미로운 소개가 있는 샘플 하나를 얻었습니다 . 다른 샘플은 멋진 스타일 전환을 특징으로 합니다 . 동시에 낮은 온도 매개변수를 가진 몇 가지 예를 생성하여 느린 템포의 노래를 만들었습니다. 첫 번째 와 두 번째는 여기 있습니다 . 전체 재생 목록은 여기 에서 찾을 수 있습니다 .

이제 GPU 메모리 소비와 속도 관점에서 문제를 살펴보겠습니다.

우리는 배치로 시퀀스를 처리함으로써 계산 속도를 크게 높였습니다. 동시에, 시퀀스가 ​​길어질수록(데이터 세트에 따라 다름) 최대 배치 크기가 감소하기 시작합니다. 왜 그럴까요? 역전파를 사용하여 기울기를 계산할 때, 메모리 소비에 가장 큰 영향을 미치는 모든 중간 활동을 저장해야 합니다. 시퀀스가 ​​길어질수록 더 많은 활성화를 저장해야 하므로 배치에 더 적은 예제를 넣을 수 있습니다.

때로는 정말 긴 시퀀스로 작업해야 하거나 배치 크기를 늘리거나, 아니면 사용 가능한 메모리 양이 적은 GPU가 필요할 수도 있습니다. 이 경우 메모리 소모를 줄이는 여러 가지 가능한 솔루션이 있지만, 서로 다른 상충 관계가 있는 두 가지를 언급하겠습니다.

첫 번째는 잘린 역전파 입니다 . 아이디어는 전체 시퀀스를 하위 시퀀스로 분할하고 이를 별도의 배치로 처리하는 것입니다. 단, 이러한 배치를 분할 순서대로 처리하고 모든 다음 배치는 이전 배치의 숨겨진 상태를 초기 숨겨진 상태로 사용합니다. 또한 이 접근 방식의 구현을 제공하여 더 잘 이해할 수 있도록 합니다. 이 접근 방식은 분명히 전체 시퀀스를 처리하는 것과 정확히 동일하지는 않지만 더 자주 업데이트하고 메모리를 덜 사용합니다. 반면에 한 하위 시퀀스의 길이를 넘어서는 장기 종속성을 포착하지 못할 가능성이 있습니다.

두 번째는 그래디언트 체크포인팅 입니다 . 이 방법은 더 많은 계산을 수행하는 대가로 전체 시퀀스에서 모델을 학습하는 동안 더 적은 메모리를 사용할 수 있는 가능성을 제공합니다. 기억하시겠지만, 이전에 학습하는 동안 가장 많은 메모리가 활성화에 의해 차지된다고 언급했습니다. 그래디언트 체크포인팅의 아이디어는 모든 -번째 활성화만 저장하고 나중에 저장되지 않은 활성화를 다시 계산하는 것입니다. 이 방법은 이미 Tensorflow에 구현되어 있으며 Pytorch에 구현되고 있습니다 .

결론 및 향후 작업

저희의 작업에서는 텍스트에 대한 간단한 생성 모델을 훈련하고, 다성음악에 맞춰 모델을 확장했으며, 샘플링이 작동하는 방식과 온도 매개변수가 텍스트와 음악 샘플에 어떤 영향을 미치는지 간략히 살펴보았습니다. 낮은 온도는 더 안정적인 결과를 제공하는 반면, 높은 온도는 더 많은 무작위성을 추가하여 때로는 매우 흥미로운 샘플이 생성됩니다.

향후 작업에는 두 가지 방향이 포함될 수 있습니다. 더 많은 응용 프로그램 또는 이미 훈련된 모델에 대한 심층 분석입니다. 예를 들어 동일한 모델을 Spotify 청취 기록에 적용할 수 있습니다. 청취 기록 데이터에 대한 학습이 끝나면 이전 1시간 정도 동안 들었던 노래 시퀀스를 제공하면 하루 종일 재생 목록을 샘플링합니다. 탐색 기록에도 동일한 작업을 수행할 수 있으며, 탐색 행동 패턴을 분석하는 멋진 도구가 됩니다. 다양한 활동(헬스장에서 운동, 사무실에서 일하기, 수면)을 수행하는 동안 휴대폰에서 가속도계 및 자이로스코프 데이터를 수집 하고 이러한 활동 단계를 분류하는 방법을 학습합니다. 그런 다음 활동에 따라 음악 재생 목록을 자동으로 변경할 수 있습니다(수면 – 비 오는 차분한 음악, 헬스장에서 운동 – 고강도 음악). 의료 응용 프로그램의 경우 이 작업 과 유사하게 모델을 적용하여 맥박 및 기타 데이터를 기반으로 심장 문제를 감지할 수 있습니다 .

음악 생성을 위해 훈련된 RNN에서 뉴런 발화를 분석하는 것은 매우 흥미로울 것입니다 . 모델이 몇 가지 간단한 음악 개념(화성과 멜로디에 대한 논의와 같은)을 암묵적으로 배웠는지 확인하기 위해서입니다. RNN의 숨겨진 표현을 사용하여 음악 데이터 세트를 클러스터링하여 유사한 노래를 찾을 수 있습니다.

이 글을 마무리하기 위해 무조건 모델의 마지막 가사를 샘플링해 보겠습니다 😀 :

The story ends  
The sound of the blue  
The tears were shining  
The story of my life  
I still believe  
The story of my life 

[출처] https://warmspringwinds.github.io/pytorch/rnns/2018/01/27/learning-to-generate-lyrics-and-music-with-recurrent-neural-networks/

Learning to generate lyrics and music with Recurrent Neural Networks

A post showing an application of RNN-based generative models for lyrics and piano music generation.


Introduction

In this post we will train RNN character-level language model on lyrics dataset of most popular/recent artists. Having a trained model, we will sample a couple of songs which will be a funny mixture of different styles of different artists. After that we will update our model to become a conditional character-level RNN, making it possible for us to sample songs conditioned on artist. And finally, we conclude by training our model on midi dataset of piano songs. While solving all these tasks, we will briefly explore some interesting concepts related to RNN training and inference like character-level RNN, conditional character-level RNN, sampling from RNN, truncated backpropagation through time and gradient checkpointing. All the code and trained models are available on github and were implemented in Pytorch. The blog post can also be viewed in a jupyter notebook format. If you are already familiar with the character-level language model and recurrent neural networks, feel free to skip respective sections or go directly to the results section.

Character-Level language model

png

Before choosing a model, let’s have a closer look at our task. Given current letter and all previous letters, we will try to predict the next character. During training we will just take a sequence, and use all its characters except the last one as an input and the same sequence starting from the second character as groundtruth (see the picture above; Source). We will start from the simplest model that ignores all the previous characters while making a prediction, improve this model to make it take only a certain number of previous characters into account, and conclude with a model that takes all the previous characters into consideration while making a prediction.

Our language model is defined on a character level. We will create a dictionary which will contain all English characters plus some special symbols, like period, comma, and end-of-line symbol. Each charecter will be represented as one-hot-encoded tensor. For more information about character-level models and examples, I recommend this resource.

Having characters, we can now form sequences of characters. We can generate sentences even now just by randomly sampling character after character with a fixed probability . That’s the most simple character level language model. Can we do better than this? Yes, we can compute the probabily of occurance of each letter from our training corpus (number of times a letter occures divided by the size of our dataset) and randomly sample letter using these probabilities. This model is better but it totally ignores the relative positional aspect of each letter. For example, pay attention on how you read any word: you start with the first letter, which is usually hard to predict, but as you reach the end of a word you can sometimes guess the next letter. When you read any word you are implicitly using some rules which you learned by reading other texts: for example, with each additional letter that you read from a word, the probability of a space character increases (really long words are rare) or the probability of any consonant after the letter “r” is low as it usually followed by vowel. There are lot of similar rules and we hope that our model will be able to learn them from data. To give our model a chance to learn these rules we need to extend it.

Let’s make a small gradual improvement of our model and let probability of each letter depend only on the previously occured letter (markov assumption). So, basically we will have . This is a Markov chain model (also try these interactive visualizations if you are not familiar with it). We can also estimate the probability distribution from our training dataset. This model is limited because in most cases the probability of the current letter depends not only on the previous letter.

What we would like to model is actually . At first, the task seems intractable as the number of previous letters is variable and it might become really large in case of long sequences. Turns out Reccurent Neural Netoworks can tackle this problem to a certain extent by using shared weights and fixed size hidden state. This leads us to a next section dedicated to RNNs.

Recurrent Neural Networks

png

Recurrent neural networks are a family of neural networks for processing sequential data. Unlike feedforward neural networks, RNNs can use their internal memory to process arbitrary sequences of inputs. Because of arbitrary size input sequences, they are concisely depicted as a graph with a cycle (see the picture; Source). But they can be “unfolded” if the size of input sequence is known. They define a non-linear mapping from a current input and previous hidden state to the output and current hidden state . Hidden state size has a predefined size and stores features which are updated on each step and affect the result of mapping.

Now align the previous picture of the character-level language model and the ufolded RNN picture to see how we are using the RNN model to learn a character level language model.

While the picture depicts the Vanilla RNN, we will use LSTM in our work as it is easier to train usually achieves better results.

For a more elaborate introduction to RNNs, we refer reader to the following resource.

Lyrics dataset

For our experiments we have chosen 55000+ Song Lyrics Kaggle dataset which contains good variety of recent artists and more older ones. It is stored as a pandas file and we wrote a python wrapper around it to be able to use it for training purposes. You will have to download it yourself in order to be able to use our code.

In order to be able to interpret the results better, I have chosen a subset of artists which I am more or less familiar with:

artists = [
'ABBA',
'Ace Of Base',
'Aerosmith',
'Avril Lavigne',
'Backstreet Boys',
'Bob Marley',
'Bon Jovi',
'Britney Spears',
'Bruno Mars',
'Coldplay',
'Def Leppard',
'Depeche Mode',
'Ed Sheeran',
'Elton John',
'Elvis Presley',
'Eminem',
'Enrique Iglesias',
'Evanescence',
'Fall Out Boy',
'Foo Fighters',
'Green Day',
 'HIM',
 'Imagine Dragons',
 'Incubus',
 'Jimi Hendrix',
 'Justin Bieber',
 'Justin Timberlake',
'Kanye West',
 'Katy Perry',
 'The Killers',
 'Kiss',
 'Lady Gaga',
 'Lana Del Rey',
 'Linkin Park',
 'Madonna',
 'Marilyn Manson',
 'Maroon 5',
 'Metallica',
 'Michael Bolton',
 'Michael Jackson',
 'Miley Cyrus',
 'Nickelback',
 'Nightwish',
 'Nirvana',
 'Oasis',
 'Offspring',
 'One Direction',
 'Ozzy Osbourne',
 'P!nk',
 'Queen',
 'Radiohead',
 'Red Hot Chili Peppers',
 'Rihanna',
 'Robbie Williams',
 'Rolling Stones',
 'Roxette',
 'Scorpions',
 'Snoop Dogg',
 'Sting',
 'The Script',
 'U2',
 'Weezer',
 'Yellowcard',
 'ZZ Top']

Training unconditional character-level language model

Our first experiment consisted of training of our character-level language model RNN on the whole corpus. We didn’t take into consideration the artist information while training.

Sampling from RNN

Let’s try to sample a couple of songs after training our model. Basically, on each step our RNN will output logits and we can softmax them and sample from that distribution. Or we can use Gumble-Max trick and sample using logits directly which is equivalent.

One intersting thing about sampling is that we can partially define the input sequence ourselves and start sampling with that initial condition. For example, we can sample a song that starts with “Why”:

Why do you have to leave me?  
I think I know I'm not the only one  
I don't know if I'm gonna stay awake  
I don't know why I go along  
  
I don't know why I can't go on  
I don't know why I don't know  
I don't know why I don't know  
I don't know why I keep on dreaming of you   

Well, that sounds like a possible song 😀

Let’s sample with a song that starts with “Well”:

Well, I was a real good time  
I was a rolling stone  
I was a rock and roller  
Well, I never had a rock and roll  
There were times I had to do it  
I had a feeling that I was found  
I was the one who had to go  

There is “temperature” parameter that is used during sampling which controls the randomness of sampling process. When this parameter approaches zero, the sampling is equivalent to argmax and when it is close to infinity the sampling is equivalent to sampling from a uniform distribution. Have a look at the figure from a relevant paper by Jang et al.:

png

When , the distribution is not affected. If we decrease , the distribution becomes more pronounced, meaning that value with bigger probability mass will have it increased. When will approach zero, sampling will be equivalent to armax, because the probability of that value will be close to one. When we start to icrease the distribution becomes more and more uniform.

The previous sample was generated with a temperature paramter equal to . Let’s see what happens when we increase it to and sample:

Why can't we drop out of time?  
We were born for words to see.  
Won't you love this. You're still so amazing.  
This could be that down on Sunday Time.  
Oh, Caroline, a lady floor.  
I thought of love, oh baby.  

Let’s try increasing it even more:

Why - won't we grow up naked?  
We went quietly what we would've still give  
That girl you walked before our bedroom room  
I see your mind is so small to a freak  
Stretching for a cold white-heart of crashing  
Truth in the universal daughter  
  
I lose more and more hard  
I love you anytime at all  
Ah come let your help remind me  
Now I've wanted waste and never noticed  
  
I swear I saw you today  
You needed to get by  
But you sold a hurricane  
Well out whispered in store

Why don’t we grow up naked, indeed? 😀 Well, you can see that trend that when we increase the temperature, sampled sentences become more and more random.

Training conditional character-level language model

Imagine if we could generate lyrics in a style of some particular artist. Let’s change our model, so that it can use this information during training.

We will do this by adding an additional input to our RNN. So far, our RNN model was only accepting tensors containing one-hot encoded character on each step.

The extention to our model will be very simple: we will have and additional one-hot encoded tensor which will represent the artist. So on each step the RNN will accept one tensor which will consist of concatenated tensors representing character and artist. Look here for more.

Sampling from conditional language model RNN

After training, we sampled a couple of songs conditined on artist. Below you can find some results.

Him:

My fears  
And the moment don't make me sing  
So free from you  
The pain you love me yeah  
  
Whatever caused the warmth  
You smile you're happy  
You sit away  
You say it's all in vain  

Seems really possible, especially the fact the the word pain was used, which is very common in the lyrics of the artist.

ABBA:

Oh, my love it makes me close a thing  
You've been heard, I must have waited  
I hear you  
So I say  
Thank you for the music, that makes me cry  
  
And you moving my bad as me, ah-hang wind in the hell  
I was meant to be with you, I'll never be playing up

Bob Marley:

Mercy on judgment, we got so much  
  
Alcohol, cry, cry, cry  
Why don't try to find our own  
I want to know, Lord, I wanna give you  
Just saving it, learned  
Is there any more?  
  
All that damage done  
That's all reason, don't worry  
Need a hammer  
I need you more and more  

Coldplay:

Look at the stars  
Into life matter where you lay  
Saying no doubt  
I don't want to fly  
In my dreams and fight today

I will fall for you  
  
All I know  
And I want you to stay  
Into the night  
  
I want to live waiting  
With my love and always  
Have I wouldn't wasted  
Would it hurt you

Kanye West:

I'm everywhere for you  
The way that it couldn't stop  
I mean it too late and love I made in the world  
I told you so I took the studs full cold-stop  
The hardest stressed growin'  
The hustler raisin' on my tears  
I know I'm true, one of your love

Looks pretty cool but keep in mind that we didn’t track the validation accuracy so some sampled lines could have been just memorized by our rnn. A better way to do it is to pick a model that gives best validation score during training (see the code for the next section where we performed training this way). We also noticed one interesting thing: the unconditional model usually performes better when you want to sample with a specified starting string. Our intuition is that when sampling from a conditional model with a specified starting string, we actually put two conditions on our model – starting string and an artist compared to the one condition in the case of previous model that we explored. And we didn’t have enough data to model that conditional distribution well (every artist has relatively limited number of songs).

We are making the code and models available and you can sample songs from our trained models even without gpu as it is not really computationally demanding.

Midi dataset

Next, we will work with a small midi dataset consisting of approximately piano songs. We have used the Nottingam piano dataset (training split only).

Turns out that any midi file can be converted to piano roll which is just is a time-frequency matrix where each row is a different MIDI pitch and each column is a different slice in time. So each piano song from our dataset will be represented as a matrix of size , where is a number of pitches of the piano. Here is an example of piano roll matrix:

png

This representation is very intuitive and easy to interpret even for a person that is not familiar with music theory. Each row represents a pitch: top rows represent low frequency pitches and bottom rows represent high pitches. Plus, we have a horizontal axis which represents time. So if we play a sound with a certain pitch for a certian period of time, we will see a horizontal line. Overall, this is very similar to piano tutorials on youtube.

Now, let’s try to see the similarities between the character-level model and our new task. In the current case, we will have to predict the pitches that will be played on the next timestep, given all the previously played pitches. So, if you look at the picture of the piano roll, each column represents some kind of a musical character and given all the previous musical characters, we want to predict the next one. Let’s pay attention to the difference between a text character and a musical character. If you recall, each character in our language model was represented by one-hot vector (meaning that only one value in our vector is and others are ). For music character multiple keys can be pressed at one timestep (since we are working with polyphonic dataset). In this case, each timestep will be represented by a vector which can contain more than one .

Training pitch-level piano music model

Before starting the training, we will have to adjust our loss that we have used for language model to account for different input that we discussed in the previous section. In the language model, we had one-hot encoded tensor (character) as an input on each timestep and one-hot encoded tensor as output (predicted next character). As we had to make a single exlusive choice for predicted next character, we used cross-entropy loss.

But now our model outputs a vector which is no longer one-hot encoded (multiple keys can be pressed). Of course, we can treat all possible combinations of pressed keys as a separate class, but this is intractable. Instead, we will treat each element of the output vector as a binary variable ( – pressing, – not pressing a key). We will define a separate loss for each element of the output vector to be binary cross-entropy. And our final loss will be an averaged sum of these binary cross-entropies. You can also read the code to get a better understanding.

After making the aforementioned changes, we trained our model. In the next section, we will perform sampling and inspect the results.

Sampling from pitch-level RNN

We have sampled piano rolls during the early stages of optimization:

png

You can see that our model is starting to learn one common pattern that is common among the songs from our dataset: each song consists of two different parts. First part contains a sequence of pitches that are played separately and are very distinguishable and are often singable (also know as melody). If you look at the sampled piano roll, this part can be clearly seen in the bottom. If you also have a look at the top of our piano roll, we can see a group of pitches that are usually played together – this is harmony or a progression of chords (pitches that are played together throughout the song) which accompanies the melody.

By the end of the training samples drawn from our model started to look like this:

png

As you can see they started to look more similar to the picture of the ground-truth piano roll that we showed in the previous sections.

After training, we have sampled songs and analyzed them. We got one sample with an interesting introduction. While another sample features a nice style transition. At the same time we generated a couple of examples with low temperature parameter which resulted in songs with a slow tempo: first one and a second one here. You can find the whole playlist here.

Now let’s look at our problem from the gpu memory consumption and speed point of view.

We greatly speed up computation by processing our sequences in batches. At the same time, as our sequences become longer (depending on the dataset), our max batch size starts to decrease. Why is it a case? As we use backpropagation to compute gradients, we need to store all the intermediate acitvations, which contribute the most to the memory consumption. As our sequence becomes longer, we need to store more activations, therefore, we can fit less examples in our batch.

Sometimes, we either have to work with really long sequences or we want to increase our batch size or maybe you just have a gpu with small amount of memory available. There are multiple possible solutions to reduce memory consumption in this case, but we will mention two, which will have different trade-offs.

First one is a truncated back propagation. The idea is to split the whole sequence into subsequences and treat them as separate batches with an exception that we process these batches in the order of split and every next batch uses hidden state of previous batch as an initial hidden state. We also provide an implementation of this approach, so that you can get the better understanding. This approach is obviously not an exact equivalent of processing the whole sequence but it makes more frequent updates and consumes less memory. On the other hand, there is a chance that we might not be able to capture long-term dependencies that span beyond the length of one subsequence.

Second one is gradient checkpointing. This method gives us a possibilty to use less memory while training our model on the whole sequence on the expence of performing more computation. If you recall, previously we mentioned that the most memory during training is occupied by activations. The idea of gradient checkpointing consists of storing only every -th activation and recomputing the unsaved activations later. This method is already implemented in Tensorflow and being implemented in Pytorch.

Conclusion and future work

In our work we trained simple generative model for text, extended our model to work with polyphonic music, briefly looked at how sampling works and how the temperature parameter affects our text and music samples – low temperature gives more stable results while high temperature adds more randomness which sometimes gives rise to very interesting samples.

Future work can include two directions – more applications or deeper analysis of the already trained models. Same models can be applied to your spotify listening history, for example. After training on your listening history data, you can give it a sequence of songs that you have listened to in the previous hour or so, and it will sample a playlist for you for the rest of the day. Well, you can also do the same for your browsing history, which will be just a cool tool to analyze your browsing behaviour patterns. Capture the accelerometer and gyroscope data from your phone while doing different activities (exercising in the gym, working in the office, sleeping) and learn to classify these activity stages. After that you can change your music playlist automatically, based on your activity (sleeping – calm music of rain, exercising in the gym – high intensity music). In terms of medical applications, model can be applied to detect heart problems based on pulse and other data, similar to this work.

It would be very interesting to analyze the neuron firings in our RNN trained for music generation like here. To see if the model learned some simple music concepts implicitly (like our discussion of harmony and melody). The hidden representation of RNN can be used to cluster our music dataset to find similar songs.

Let’s sample one last lyrics from our unconditional model to conclude this post 😀 :

The story ends  
The sound of the blue  
The tears were shining  
The story of my life  
I still believe  
The story of my life 

Loading

1 12월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 089.Reality — Richard Sanderson ( 리얼리티 : 리처드 샌더슨) [듣기/가사/해석] 영화 라붐 주제곡

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 089.Reality — Richard Sanderson ( 리얼리티 : 리처드 샌더슨) [듣기/가사/해석] 영화 라붐 주제곡

 

 

Richard Sanderson – Reality [가사/듣기/해석]

 

■ Richard Sanderson – Reality

 

1981년에 개봉한 소피 마르소 주연의

영화 라붐 (La Boum)의 주제곡.

영화는 파리에서 개봉이 되자마자

1천만달러가 넘는 수입과 관객동원 330만명을

기록할 정도로 흥행에 대성공을 하게 된다.

주제가인 [Reality] 또한 발표 당시

프랑스,이탈리아,독일,네덜란드,

그리스,일본등지에서 대 히트를 기록하며..

이탈리아와 일본에서는 차트 정상에 올랐다.

 

■ Richard Sanderson – Reality [감상]

 

■ Richard Sanderson – Reality [앨범]

 

■ Richard Sanderson – Reality [가사/해석]

 

Met you by surprise

I didn’t realize

That my life would change forever

Saw you standing there

I didn’t know i’d care

There was something special in the air

우연히 당신을 만났어요.

난 내 삶이 영원히 바뀌리라고는

깨닫지 못했어요.

당신이 거기에 서있는것 보고

난 특별한 무언가가 있다고

내가 관심을 갖게된 걸 몰랐어요.

 

Dreams are my reality

The only kind of real fantasy

Illusions are a common thing

I try to live in dreams

It seems

as if it’s meant to be

꿈이 내 현실로 이루어졌어요.

환상이 현실화된거죠..

망상은 흔한일이죠.

난 꿈속에서 살기를 바래요.

마치 그렇게 되도록

운명적으로 이루어진것 같아요.

 

Dreams are my reality

A different kind of reality

I dream of loving in the night

And loving seems all right

Although it’s only fantasy

꿈이 내 현실로 이루어진것만 같아요

현실과는 다른 무엇이지요.

난 밤이면 사랑하는 꿈일 꾸어요.

꿈속에서 비록 환상일 뿐이지만

사랑이 아무 문제 없는것 처럼 여겨져요.

 

If you do exist

honey don’t resist

Show me your new way of loving

Tell me that it’s true,

Show me what to do

I feel something special about you

당신이 존재한다면,

그대여 거부하지 마세요..

당신의 새로운 사랑 법을 내게 보여주세요.

그것이 진실이라고 말해주세요.

내가 어찌해야할런지 보여주세요.

난 당신께 특별한 무엇인가를 느끼거든요.

 

Dreams are my reality

The only kind of reality

Maybe my foolishness has passed

And maybe now at last

I see how the real thing can be

꿈이 내 현실로 이루어진것만 같아요

환상이 현실화된거죠..

아마 나의 어리석움이 끝나고

이젠 마침내

현실이 어떠한지 알게 된걸지도 몰라요.

 

Dreams are my reality

A wondrous world where I’d like to be

I dream of holding you all night

And holding you seems right

Perhaps that’s my reality

꿈이 내 현실로 이루어진것만 같아요.

내가 머물고 싶은 놀라운 세계지요.

난 당신을 밤새 안고 있는 꿈을 꾸어요.

당신과 안고 있는것이 아무 문제 없는것 같아요.

아마도 그건 내 현실인가봐요.

 

Met you by surprise

I didn’t realize that

My life would change forever

Tell me that it’s true

Feelings that are new

I feel something special about you

우연히 당신을 만났어요.

난 내 삶이 영원히 바뀌리라고는

깨닫지 못했어요.

그건 사실이라고 말해주세요,

새로운 느낌이에요.

당신께 특별한 무언가가 있다고 느껴져요.

 

Dreams are my reality

A wondrous world where I like to be

Illusions are a common thing

I try to live in dreams

Although it’s only fantasy

꿈이 내 현실로 이루어진것만 같아요.

내가 머물고 싶은 놀라운 세계지요.

망상은 흔한 일이에요.

난 비록 환상일 뿐일지라도

꿈속에서 살고 싶어요.

 

Dreams are my reality

I like to dream of you close to me

I dream of loving in the night

And loving you seems right

Perhaps that’s my reality

꿈이 내 현실로 이루어진것만 같아요

당신이 내곁이 가까이 있는 꿈을 꾸고싶어요.

밤에 당신을 사랑하는 꿈을 꾸고 싶어요.

당신을 사랑하는게 아무 문제가 없는것 같거든요.

아마도 그건 내 진실인가봐요.

 

[출처] https://e-happy.tistory.com/236?category=154174

Loading

18 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 076. You Call It Love — Karoline Kruger (유 콜 잇 러브 : 캐롤라인 크루거) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 076. You Call It Love — Karoline Kruger (유 콜 잇 러브 : 캐롤라인 크루거) [듣기/가사/해석]

 
 
추억의 팝송 You Call It Love-Karoline Kruger(가사/해석)
 
오늘의 음악은 노르웨이 가수 캐롤라인 크루거(Karoline Krüger) 의 You Call It Love 라는 곡입니다.
 

You Call It Love  ---  Karoline Kruger 01.jpg

 
Karoline Kruger – You Call It Love
 

 

 
 
 
 
 
You call it love
사랑이라 부르는 것
 
There are things I need to say about the way I feel, When your arms are all around me.
당신의 가슴에 안길 때 내가 느끼는 것들을 꼭 이야기 해야 할 때가 있어요.
 
You call it love.
사랑이라 부르는 것
 
Words I’d heard that sound so fine
내가 들어 본 것 가운데 아주 멋진 말이지요
 
Meaningless each time till you came and found me.
당신이 날 찾아주기 전에 별다른 의미가 없었어요.
 
See the ground is slowly turning dizzily, easily feel the way my heart is burning secretly inside of me
땅은 어지럽게 돌고 남 몰래 불타는 내 가슴을 느껴보세요
 
You call it love
사랑이라고 부르는 것
 
All the wishes in my mind soared into the skies where reflected in my own eyes
내가 꿈꾸던 모든 소원이 하늘 높이 떠올라 내 눈 속에 비쳐지고 있어요.
 
You say it’s love variations on a theme
사랑이라고 부르는 것. 같은 테마의 변주곡이지요.
 
Love was just a dream memories of past sighs
사랑은 꿈이었고 한숨이었어요.
 
See you love is always round me everywhere in the air
당신의 사랑은 언제나 내 곁에 있어요
 
New sensations now surround me ocean wide deep inside
깊고 넓은 바다처럼 나를 감싸고 있어요.
 
 
 
You call it love
사랑이라고 부르는 것.
 
All my days past close to you grey skies turn to blue and the sun shines all around me
당신과 함께 지낸 날들은 잿빛 하늘이 푸르게 바뀌었고 언제나 햇빛이었었지요.
 
You call it love
사랑이라고 부르는 것.
 
It’s a phrase that people say each and every day real love is hard to find though
사람들이 매일 말하는 것이지만 진실한 사랑을 찾기는 어려워요.
 
See the ground is slowly turning dizzily easily Feel the way my heart is burning from your touch secretly
땅은 어지럽게 돌고 남 몰래 불타는 내 가슴을 느껴보세요.
 
You call it love
사랑이라고 부르는 것.
 
Now I know it’s so much more being close to you makes this feeling new that you call it love
그것은 훨씬 아름다운 것. 당신 곁에 있으면 사랑이라고 부르는 그것은 새롭게 해요.
.
 
 
 
 
이 곡은 1989년에 개봉한 소피마르소 주연의 프랑스 영화 ‘유 콜 잇 러브(L’Etudiante)’의 동명의 OST 곡이에요.
 
 
 
 
우리나라에서는 [여학생] (The Student) 이라는 제목으로 개봉이 됐네요 ㅋㅋ (감독: 클로드 피노토 / 주연:소피마르소,벵상 링던)
 

You Call It Love  ---  Karoline Kruger 02.jpg

You Call It Love  ---  Karoline Kruger 03.jpg

You Call It Love  ---  Karoline Kruger 04.jpg

하..진짜 소피마르소의 미모 ㅠㅠㅠㅠ 세기의 미인 아닌가요??
 
 
저는 예전부터 이 곡을 알고는 있었는데 최근에 응답하라 1988 의 BGM으로도 나와서 다시 듣게 되었어요.
 
 
생각이 잘 나지 않으시는 분들은 전주만 들어도 아!!! 하실거에요. 가슴을 콩닥거리게 만드는 전주.
 
영화는 보지 못했는데 기회가 된다면 꼭 영화를 보고 싶어요.
 
 
이곡은 조규찬, 이기찬씨가 리메이크를 해서 앨범에 수록하기도 했고, 화요비씨가 한 방송 프로에서 부르기도 했답니다.
 
 
 
가슴을 두근거리게 만드는 음악, 추억의 팝송 You Call It Love 였습니다????
 
 
[출처] https://sobari.tistory.com/325

Loading

17 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 075. Sea Of Heartbreak — Poco (씨 오브 하트브레이크 (상심의 바다) : 포코) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 075. Sea Of Heartbreak — Poco (씨 오브 하트브레이크 (상심의 바다) : 포코) [듣기/가사/해석]

 
 
 
Sea of Heartbreak는 미국의 컨트리 가수이자 작곡가인 Don Gibson 돈 깁슨이 1961년에 발표한 노래입니다. 미국의 가수, 배우, 작사가, 작가인 Paul Hampton 폴 햄턴과 작사가 Hal David 할 데이비드가 작사 작곡했습니다.
 
 
 
 
이 곡은 미국 빌보드차트 핫100 21위에 올랐고, 1961년 연간순위는 97위를 기록했습니다.
 
 
 
원 가수인 돈 깁슨 외에도 Poco 포코, Johnny Cash 조니 캐시 등 많은 가수들이 리메이크했습니다.
 
 
 
노래가사는 제목처럼 실연으로 가슴이 찢어질 듯 아픈 심경에 대한 이야기입니다. 사랑하던 사람을 떠나보낸 후 더 이상 목적지가 보이지 않고 고통스럽게 바다위를 표류하는 것 같다, 도대체 뭐가 잘못된 것까, 왜 날 떠난 걸까 등등 여러 생각으로 방황에 방황을 거듭하는 남자의 마음을 표현했습니다.
 
 
 
 
Sea of Heartbreak 뜻은 상심의 바다라는 의미입니다. Heartbreak는 가슴이 찢어지는 듯한 아픔을 말하는데 우리말로는 가슴앓이나 상심이 적당한 단어인 것 같습니다.
 
 
 
 
 
 
 
Sea of Heartbreak 전곡 유튜브 팝송 Music Video 동영상
 

 
 

 
 
Poco 포코 버전

Sea of Heartbreak 01.jpg

 
 
 
 
 
 
Sea of Heartbreak – Don Gibson 가사해석 한글 영어발음
 
 
 
The lights in the harbor
 
더 라이트 인 더 하버
 
항구의 불빛은
 
 
 
Don’t shine for me
 
돈 샤인 포 미
 
날 위해 빛을 내지 않네요
 
 
 
I’m like a lost ship
 
아임 라이크 어 로스트 쉽
 
난 길 잃은 배와 같아요
 
 
 
Adrift on the sea
 
어드리프트 온 더 씨
 
바다위를 표류하는
 
 
 
 
 
 
 
Yeah, the sea of heartbreak
 
예 더 씨 오브 하트브레이크
 
맞아요 상심의 바다예요
 
 
 
Lost love and loneliness
 
로스트 러브 앤드 론리니스
 
잃어버린 사랑과 외로움
 
 
 
Memories of your caress so divine
 
메모리즈 오브 유어 커레스 쏘 디바인
 
너무나 멋졌던 당신의 손길에 대한 추억
 
 
 
How I wish you were mine again my dear
 
하우 아이 위시 유 워 마인 어게인 마이 디어
 
당신이 다시 내 것이 된다면 얼마나 좋을까 내 사랑
 
 
 
I’m on this sea of tears
 
아임 온 디스 씨 오브 티어즈
 
난 이 눈물의 바다에 떠있어요
 
 
 
Sea of heartbreak
 
씨 오브 하트브레이크
 
상심의 바다
 
 
 
 
 
 
 
Oh, how did I lose you
 
오 하우 디드 아이 루즈 유
 
오 내가 어떻게 당신을 잃게 되었을까요
 
 
 
Oh, where did I fail
 
오 웨어 디드 아이 페일
 
오 내가 뭘 잘못한 걸까요
 
 
 
Why did you leave me
 
와이 디드 유 리브 미
 
왜 당신이 날 떠난 걸까요?
 
 
 
Always to sail
 
올웨이즈 투 세일
 
언제나 항해하고 있어요
 
 
 
 
 
 
 
Yeah, the sea of heartbreak
 
예 더 씨 오브 하트브레이크
 
맞아요 상심의 바다예요
 
 
 
Lost love and loneliness
 
로스트 러브 앤드 론리니스
 
잃어버린 사랑과 외로움
 
 
 
Memories of your caress so divine
 
메모리즈 오브 유어 커레스 쏘 디바인
 
너무나 멋졌던 당신의 손길에 대한 추억
 
 
 
How I wish you were mine again my dear
 
하우 아이 위시 유 워 마인 어게인 마이 디어
 
당신이 다시 내 것이 된다면 얼마나 좋을까 내 사랑
 
 
 
I’m on this sea of tears
 
아임 온 디스 씨 오브 티어즈
 
난 이 눈물의 바다에 떠있어요
 
 
 
Sea of heartbreak
 
씨 오브 하트브레이크
 
상심의 바다
 
 
 
 
 
 
 
Oh, what I’d give just to sail back to shore
 
오 왓 아이드 기브 저스트 투 세일 백 투 쇼어
 
오 해변으로 돌아가기 위해 내가 무엇을 할까요
 
 
 
Back to your arms once more
 
백 투 유어 암즈 원스 모어
 
다시 한 번 당신 품으로 돌아가기 위해서
 
 
 
Oh, come to my rescue
 
오 컴 투 마이 레스큐
 
오 날 구하러 와주세요
 
 
 
Come here to me
 
컴 히어 투 미
 
내게로 오세요
 
 
 
Take me and keep me
 
테이크 미 앤 킵 미
 
날 데려가서 지켜주세요
 
 
 
Away from the sea
 
어웨이 프롬 더 씨
 
그 바다로부터 멀리
 
 
 
 
 
 
 
Yeah, the sea of heartbreak
 
예 더 씨 오브 하트브레이크
 
맞아요 상심의 바다예요
 
 
 
Lost love and loneliness
 
로스트 러브 앤드 론리니스
 
잃어버린 사랑과 외로움
 
 
 
Memories of your caress so divine
 
메모리즈 오브 유어 커레스 쏘 디바인
 
너무나 멋졌던 당신의 손길에 대한 추억
 
 
 
How I wish you were mine again my dear
 
하우 아이 위시 유 워 마인 어게인 마이 디어
 
당신이 다시 내 것이 된다면 얼마나 좋을까 내 사랑
 
 
 
I’m on this sea of tears
 
아임 온 디스 씨 오브 티어즈
 
난 이 눈물의 바다에 떠있어요
 
 
 
Sea of heartbreak
 
씨 오브 하트브레이크
 
상심의 바다
 
 
 
Yeah, sea of heartbreak
 
예 시 오브 하트브레이크
 
예 상심의 바다
 
 
 
Heartbreak
 
하트브레이크
 
상심
 
 
[출처] https://bardland.tistory.com/690

Loading

16 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 074.Killing Me Softly With His Song — Roberta Flack (킬링 미 소프티 위드 히스 송 : 로버타 플랙) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 074.Killing Me Softly With His Song — Roberta Flack (킬링 미 소프티 위드 히스 송 : 로버타 플랙) [듣기/가사/해석]

 
Roberta Flack (로버타 플랙) – Killing Me Softly With His Song [가사/해석/듣기/노래]
 
 
Roberta Flack – Killing Me Softly With His Song / 로버타 플랙 – 킬링 미 소프틀리 위드 히즈송
 
 
‘Killing Me Softly With His Song’은 1973년 8월 1일에 발매된 미국의 싱어송라이터인 ‘로버타 플랙 (Roberta Flack)’의 정규 5집 앨범 [Killing Me Softly] 타이틀 곡입니다.
 
 

Killing Me Softly With His Song --- Roberta Flack.jpeg

 
‘Killing Me Softly With His Song’의 원곡은 미국의 작사가인 ‘노먼 짐벨 (Norman Gimbel)’이 작사를 그의 작곡 파트너인 ‘찰스 폭스 (Charles Fox)’가 작곡을 한 곡으로 1972년에 ‘로리 리버만 (Lori Lieberman)’에 의해서 발표가 되었습니다.
 
 
 
 
 
 
‘로리 리버만’은 우리에게는 ‘Vincent’로 잘 알려진 가수 ‘돈 맥클린’의 공연을 보고 영감을 받아서 ‘노먼 짐벨’과 ‘찰스 폭스’와 공동으로 만든 곡이라고도 합니다.
 
 
 
 
‘로버타 플랙’은 ‘로리 리버만’의 원곡보다 빠르게 리메이크하여 1973년 1월 22일에 싱글로 발매를 하였고 결과는 대성공을 거두었습니다.
 
 
 
 
‘로버타 플랙’의 ‘Killing Me Softly With His Song’은 빌보드 싱글 차트 1위, 빌보드 R&B 싱글 차트 2위, 빌보드 이지 리스닝 차트 2위를 기록하였고, 캐나다, 호주 싱글 차트 1위와 여러 국가에서 싱글 차트 상위권을 차지하였습니다.
 
 
 
 
또한 ‘로버타 플랙’의 ‘Killing Me Softly With His Song’은 ‘롤링 스톤’ 선정 ‘역사상 가장 위대한 500곡’에서 360위에, 빌보드 선정 ‘역사상 가장 위대한 노래’ 82위에 선정이 되었으며 1999년 그래미 명예의 전당에 헌액이 되었습니다.
 
 
 
 
앨범 [Killing Me Softly]는 맹인 테너 색소폰 , 플루트 연주자이자 뮤지션인 ‘라산 롤랜드 커크 (Rahsaan Roland Kirk)’에 헌정된 앨범으로 타이틀 곡인 ‘Killing Me Softly With His Song’이 세계적으로 크게 히트를 하였습니다.
 
 
 
 
앨범 [Killing Me Softly]는 빌보드 앨범 차트 3위, 빌보드 R&B 차트 2위를 기록하였고, 1974년 제16회 그래미 어워드에서 ‘올해의 레코드’와 타이틀 곡 ‘Killing Me Softly With His Song’으로 ‘최우수 여성 팝 보컬 퍼포먼스’를 수상하였습니다.
 
 
 
 
 
 
Roberta Flack – Killing Me Softly With His Song [듣기]
 
 
Roberta Flack – Killing Me Softly With His Song
 

 
 
 
Roberta Flack – Killing Me Softly With His Song [Live]
 

 
Roberta Flack – Killing Me Softly With His Song
 
 
 
 
 
Roberta Flack – Killing Me Softly With His Song [Single/1973]
 
Roberta Flack – Killing Me Softly With His Song
싱글 앨범 : Killing Me Softly With His Song

Killing Me Softly With His Song --- Roberta Flack 02.jpeg

발매일 : 1973. 01. 22
 
 
 
– 수록곡 –
 
A : Killing Me Softly With His Song
 
B : Just Like A Woman
 
 
 
 
 
 
Roberta Flack (로버타 플랙) – Killing Me Softly With His Song (킬링 미 소프트리 위드 히스 송) [가사/해석]
 
 
 
Strumming my pain with his fingers
Singing my life with his words
Killing me softly with his song
Killing me softly with his song
Telling my whole life with his words
Killing me softly with his song
 
그의 손가락이 나의 아픔을 연주해요
그의 이야기는 내 인생을 노래하고요
그의 노래가 나를 부드럽게 적셔요
그의 노래가 나를 부드럽게 적셔요
그의 이야기가 내 모든 삶을 말할 때면
그의 노래는 나를 부드럽게 적셔요
 
 
 
 
 
I heard he sang a good song
I heard he had a style
And so I came to see him
And listened for a while
And there he was this young boy
A stranger to my eyes
 
 
 
 
나는 그가 노래를 잘한다고 들었죠.
그만의 독특함이 있다고요.
그래서 그를 보러 왔죠.
그래서 얼마 동안 그의 노래를 들었죠
그곳에 있는 그 어린 소년은
내가 모르는 사람이었죠
 
 
I felt all flushed with fever
embarrassed by the crowd
I felt he found my letters
And read each one out loud
I prayed that he would finish
But he just kept right on
 
나는 군중들의 열기에
얼굴이 화끈하게 달아올랐죠.
그가 내 편지를 발견했나 봐요
그것을 한 줄 한 줄
 
소리 내어 읽지 뭐예요
난 제발 그만 두기를 바랐죠
하지만 그는 여전히 계속했어요
 
 
 
He sang as if he knew me
In all my dark despair
And then he looked
 
right through me
As if I wasn’t there
And he just kept on singing
Singing clear and strong
 
 
 
그는 암울한 절망 속의 나를 아는 듯
노래를 불었죠
그리고 마치 내가 그곳에 없는 듯
나를 뚫어지게 바라보았죠
그리고 계속해서 노래를 했죠
맑고 힘 있게 말이에요
 
 
[출처] https://w-music.tistory.com/entry/Roberta-Flack-%EB%A1%9C%EB%B2%84%ED%83%80-%ED%94%8C%EB%9E%99-Killing-Me-Softly-With-His-Song
 
 
 
[팝송으로 배우는 영어] Killing Me Softly With His Song – by Roberta Flack
 
 
 
안녕하세요? 팝스 잉글리시의 부지영입니다. 가끔 가다 유행가나 팝송을 들으면서 ‘이건 바로 내 얘기인데..’ 할 때가 있죠. ‘어쩌면 내 심정을 저렇게 잘 표현했을까’ 하고 감탄할 때가 있는데요. 로버타 플랙 (Roberta Flack)의 노래 ‘Killing Me Softly with His Song (그의 노래는 살며시 내 마음을 빼앗아요)’ 도 바로 그런 기분을 노래한 거라고 합니다. 마침 팝스 잉글리시 청취자 한 분이 이 노래를 신청해 오셨는데요. 팝스 잉글리시 오늘 시간에는 ‘Killing Me Softly with His Song’의 가사를 해석해 보고, 노래에 얽힌 사연도 알아보겠습니다.
 
 
(반복구)
 
Strumming my pain with his fingers,
그의 연주는 나의 아픔을 노래하고,
(strum은 기타와 같은 현악기를 ‘손으로 퉁기다, 연주하다’란 뜻의 단어죠. 여기서는 그의 기타 연주가 나의 아픔을 표현하는 것처럼 들린다는 의미로 해석됩니다. 그만큼 연주가 마음에 와닿는다는 말이죠.)
 
 
Singing my life with his words,
가사는 내 삶을 말하는 것 같아요,
(word는 ‘말, 단어’란 뜻을 갖는데요. 복수로 words라고 하면 가사, 즉 노랫말이나 배우의 대사를 의미하기도 합니다.)
 
 
Killing me softly with his song,
그의 노래는 살며시 내 마음을 빼앗아요,
(kill은 원래 ‘죽이다, 살해하다’란 뜻이지만 여기서는 그런 뜻으로 쓰인 게 아니구요. 노래를 듣고 깊이 감동을 받았음을 의미하죠. 나의 삶과 아픔을 모두 다 아는 듯한 노래에 마음을 뺏겼다는 뜻입니다. 이처럼 어떤 일로 매우 기뻐서 마음이 벅차 오를 때, 또는 깊은 감동을 받았을 때 kill을 쓰는데요. 예를 들어 “The outstanding finale killed the audience.”하면 “멋진 마지막 장면은 청중을 깊은 감동으로 몰아넣었습니다.”하는 뜻입니다.)
 
 
Killing me softly with his song,
그의 노래는 살며시 내 마음을 빼앗아요,
 
 
Telling my whole life with his words,
내 모든 인생을 얘기하네요.
 
(여기서 words는 역시 노래 가사를 말하죠. ‘my whole life’, ‘내 모든 인생’을 얘기하는 듯 하다는 말입니다.)
 
 
Killing me softly with his song
그의 노래는 살며시 내 마음을 빼앗아요,
 
로버타 플랙의 노래 ‘Killing Me Softly with His Song’, 앞 부분에 나오는 반복구 해석해 봤습니다. 이 노래는 로버타 플랙이 불러서 크게 유행시켰지만 원래 로버타 플랙의 노래는 아니구요. 로리 리버만 (Lori Lieberman)이란 가수가 처음 발표했던 곡인데요. 이 노래는 로리 리버만이 실제로 겪은 느낌을 표현한 것입니다. 로리 리버만은 ‘American Pie’, ‘Vincent’로 유명한 단 맥클레인 (Don McLean)의 로스 앤젤레스 공연에 갔다가 깊은 감동을 받았다고 하는데요. 특히 ‘Empty Chairs (빈 의자)’란 노래를 들으면서 마치 자기 얘기를 하는 것 같은 느낌을 받았다고 하네요. 집에 돌아온 뒤 그 느낌을 되살려 ‘Killing Me Softly with His Blues’ . ‘그의 블루스 음악은 살며시 내 마음을 빼앗아요’란 제목의 시를 썼는데요. 로리 리버만이 쓴 이 시를 각색해서 노래로 만든 것이 바로 ‘Killing Me Softly with His Song’이란 노래입니다.
 
 
(1절)
 
I heard he sang a good song, I heard he had a style.
그 사람 노래가 좋다고 들었어요, 멋있다고 들었어요.
 
(“I heard he sang a good song.”, 직역하면 “그가 좋은 노래를 부른다고 들었어요.”란 뜻인데요. 목소리도 좋고, 가사도 좋고, 곡도 좋다는 여러가지 의미가 들어있습니다. ‘have a style’은 ‘스타일이 있다’는 말인데요. 한국에서 “그 사람 스타일 좋아요.”, 그런 말 많이 하죠. 영어로는 “He has a style.”이라고 하시면 됩니다. 결국 멋있다는 말이죠. style은 원래 ‘방식, 양식’, 또는 ‘복식이나 머리 모양 따위의 맵시, 품’을 가리키죠. “He has his particular style.”하면 “그 사람 특유의 방식이 있습니다.”란 말인데요. 문맥에 따라 패션, 옷 맵시를 의미할 수도 있고, 일하는 방식, 연주 방식 등으로 해석할 수 있겠죠? style은 유행을 의미하기도 하는데요. ‘in style’하면 지금 유행한다는 뜻인데요. 반면에 ‘out of style’ 하면 유행이 지났다는 뜻입니다. “Skinny jeans are in style now.”하면 “요즘은 바지 통이 좁은 청바지가 유행입니다.”란 말이구요. “Bell bottom pants are out of style.”하면 “나팔 바지는 유행이 지났어요.”란 뜻입니다.)
 
 
And so I came to see him to listen for a while.
그래서 잠시 그 사람 노래를 들으러 왔죠
 
(‘for a while’은 ‘잠깐, 잠시, 얼마동안’이란 뜻의 숙어죠. “I’ll be out of town for a while. I’m going to Korea.”하면 “잠시 여기 없을 거에요. 한국에 갈 거에요.”란 말이죠. “Sit down and stay for a while.”하면 “잠시 앉았다 가세요.”란 뜻입니다.)
 
 
And there he was this young boy, a stranger to my eyes.
그런데 젊은 사람이더군요, 내 눈에 낯설게 보였어요
 
 
1절 가사 해석해 봤습니다. 앞서 말씀드린 로리 리버만은 원래 시인인데 가수로 데뷔할 준비를 하고 있었죠. 그래서 그 때 쓴 시를 작사가 노만 김블에게 보였구요. 김블이 다듬은 가사에 찰스 팍스가 곡을 붙여 탄생한 노래가 ‘Killing Me Softly with His Song’ 이었습니다. 로리 리버만은 김블이 완성한 가사는 원래 시와는 많이 달랐지만 원작 시에 담긴 감정 만큼은 그대로 살아있다고 말했습니다. 로리 리버만은 이 노래를 1972년 데뷔 앨범에 수록했는데요. 그다지 인기를 끌지 못했구요. 다음 해 로버타 플랙이 부른 노래로 널리 세상에 알려지게 됐습니다. 계속해서 2절입니다.
 
 
(2절)
 
I felt all flushed with fever, embarrassed by the crowd,
갑자기 열이 나서 달아오르는 것 같았어요, 사람들이 많아서 부끄러웠죠
 
(flush는 갑자기 열이 나서 얼굴이 빨개지는 걸 의미하죠. 비슷한 말로 blush가 있는데요. 똑같이 얼굴이 빨개진다는 말이지만 조금 의미에 차이가 있습니다. flush 가 갑자기 열기로 확 달아오르는 걸 의미한다면 blush는 수줍어서 얼굴이 붉어지는 걸 의미하죠. “You’re blushing.”하면 “얼굴 빨개졌어요”하는 말입니다. flush에는 물이 왈칵 쏟아져 나온다는 뜻도 있는데요. 수세식 화장실의 물을 내리는 걸 flush라고 하죠. “Don’t forget to flush the toilet after you use it.”하면 “화장실 사용하고 나서 변기의 물 내리는 것 잊지 마세요.”하는 말입니다.)
 
 
I felt he found my letters and read each one out loud.
그 사람이 마치 내 편지를 찾아내 하나 하나 큰 소리로 읽는 것 같았어요.
 
(내 마음을 너무 잘 아는 듯이 노래를 해서 내가 쓴 편지를 읽는 것 같은 기분을 받았다는 말이죠. ‘out loud’는 ‘큰 소리로’란 뜻입니다. “Speak out loud.”하면 “큰 소리로 명확하게 말해요.”하는 말입니다. ‘loud and clear’란 숙어가 있죠. ‘분명하게, 명료하게’란 뜻인데요. “I can hear you loud and clear.”하면 “I can hear you very well.”과 같은 말입니다. 직역하면 “당신 말이 잘 들립니다.”란 말인데요. “잘 알겠습니다. 잘 알아들었습니다.”하는 말입니다. 원래 문법상으론 “I can hear you loudly and clearly.”해야 맞지만요. 워낙 사람들이 많이 써서 관용어로 굳은 표현이기 때문에 그냥 ‘loud and clear’라고 합니다.)
 
 
I prayed that he would finish but he just kept right on
그가 그만 하길 바랬지만 그 사람은 계속했죠
 
(너무 내 얘기를 하는 것 같아서 노래를 그만 불렀으면 했지만 그 사람이 계속 노래를 불렀다는 뜻입니다.)
 
로버타 플랙은 미국 서부 로스 앤젤레스에서 동부 뉴욕으로 날아오는 비행기 안에서 이 노래를 처음 들었다고 하죠. 기내 음악감상 장치를 통해 노래를 듣고 나서는 그 매력에 푹 빠지게 됐구요. 이 노래를 꼭 불러야겠다는 결심을 했다고 합니다. 로버타 플랙은 낭만적이면서도 쓸쓸한 느낌의 노래를 만들기 위해 무척 고심했는데요. 완벽한 노래가 될 때까지 다시 부르기를 거듭해서 1년 후에야 발표하게 되죠. 그렇게 노력한 보람이 있어서 이 노래는 빌보드 인기 순위 정상에 4주 동안 머물렀구요. 음악계 최고 권위의 상인 그래미상 시상식에서 ‘올해의 노래상’, ‘팝 부문 최우수 여자 가수상’ 등을 차지합니다. 이제 마지막 남은 3절 가사 해석해 보죠.
 
 
(3절)
 
He sang as if he knew me in all my dark despair
그는 마치 나를 아는 것처럼 노래했죠, 암흑 같은 절망에 시달리던 나를
 
(despair는 ‘절망, 희망이 없는 상태’를 말하죠. ‘in despair’하면 ‘절망한, 자포자기한’이란 뜻입니다. “After his wife left him, in despair, he stayed drunk for the next three nights.”하면 “아내가 떠난 뒤 그 사람은 절망에 빠져 사흘밤을 술에 취해 지냈어요.”하는 말입니다.)
 
 
And then he looked right through me as if I wasn’t there.
그리고 내가 그 자리에 없는 것처럼 내 쪽을 물끄러미 바라봤죠
 
(‘look right through’는 어떤 사람이나 물건이 없는 것처럼 그 쪽을 바라본다는 말인데요. 어떤 사람을 무시해서 그 자리에 없는 것처럼 행동한다는 뜻으로 많이 쓰입니다. “I tried to talk to him, but he looked right through me.”하면 “그 사람하고 대화를 나누려고 했지만 그 사람은 날 무시했습니다.”란 말입니다. “I tried to engage the woman next to me in conversation, but she looked right through him.”하면 “옆에 앉은 여자를 대화를 나누려고 노력했는데요. 그 여자는 마치 내가 없는 것처럼 행동하더라구요.”하는 뜻입니다. 이 노래의 주인공 단 맥클레인은 눈이 나쁜데도 불구하고 공연할 때는 안경을 쓰지않는다고 하죠. 그래서 나온 구절이란 얘기도 있습니다.)
 
 
And he just kept on singing, singing clear and strong.
그리곤 계속 노래를 불렀어요, 선명하고 강렬한 목소리로
 
(‘keep on ~ ing’는 ‘~을 계속한다’는 뜻이죠. “US will keep on fighting against terrorists.”하면 “미국은 테러주의자들에 맞서 계속 싸울 것입니다.”란 말입니다.)
 
로버타 플랙의 노래, ‘Killing Me Softly with His Song’, 끝까지 해석해 봤습니다. 이 노래의 주인공인 단 맥클레인은 로버타 플랙의 노래가 유행하면서 그 사연을 알게됐다고 하는데요. 자신에 관한 노래가 인기 순위 1위란 얘기를 듣고 깜짝 놀랐다고 합니다. 로리 리버만은 명곡 ‘Killing Me Softly with His Song’을 탄생시킨 주역이지만 전혀 빛을 못 봤다고 할 수 있는데요. 로리 리버만은 당시에 어떻게 이 노래를 불렀는지 잠시 들어볼까요?
 
로리 리버만의 목소리로 ‘Killing Me Softly with His Song’, 잠시 들어보셨습니다. 여러분은 어떤 분위기의 노래가 더 마음에 드시는지 모르겠습니다만 아무래도 ‘Killing Me Softly with His Song’ 하면 로버타 플랙이지 않나 싶은데요. 이 노래 다시 한번 들으면서 ‘팝스 잉글리시’, 오늘 시간 마치겠습니다. 여러분, 안녕히 계세요.
 
 
 
 
 
[출처] https://www.voakorea.com/a/article-101711-pops-131980368/1275754.html

Loading

15 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 073.The Power Of Love — Jennifer Rush, Celine Dion (파워 어브 러브 (사랑의 힘) : 제니퍼 러쉬, 셀린 디옹) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 073.The Power Of Love — Jennifer Rush, Celine Dion (파워 어브 러브 (사랑의 힘) : 제니퍼 러쉬, 셀린 디옹) [듣기/가사/해석]

 
 
제니퍼 러쉬, 셀린 디온 – 더 파워 오브 러브 Celine Dion – The Power of Love 가사해석 번역 발음 듣기 뮤비
 
 
 
 
The Power of Love 원곡은 1984년에 Jennifer Rush 제니퍼 러쉬가 발표한 싱글입니다. Gunther Mende, Candy DeRouge, Jennifer Rush, Mary Susan Applegate가 공동으로 작사 작곡 했습니다.
 
 
1984년에 서독에서 발표된 후 1985년에는 영국에서 발매됐고 영국 싱글차트 1위에 5주간 머물면서 그해에 가장 많이 팔린 싱글이 되었습니다. 2017년3월 현재 영국에서만 145만장이 팔렸습니다. 미국에서는 유럽에서 거둔 성공만큼 거두지는 못했지만 빌보드차트 57위를 기록했습니다.
 
 
에어 서플라이, 로라 브래니건 등도 커버했는데 역시 가장 큰 성공을 거둔 가수는 셀린 디온입니다. 셀린 디온은 1993년에 자신의 앨범 The Colour of My Love에서 이 곡을 불렀는데 1994년 빌보드 싱글차트 1위에 4주간 머물렀습니다.
 
 
노래가사는 전형적인 사랑노래입니다. 세상이 힘들고 먼 곳에 있을 지라도 당신이 있어서 나는 헤메지 않을 수 있다고 합니다.
 
 
원래는 6분짜리 곡인데 여러 버전으로 발매되었고 가수에 따라서도 일부 가사가 빠진 쇼트 버전으로 발표했습니다. 여기서는 긴 버전으로 번역했습니다.
 
 
제니퍼 러쉬, 셀린 디옹, 에어 서플라이, 로라 브래니건 등이 부른 버전을 모았으니 감상해보세요.
 
 
 
 
 
 
셀린 디온 – The Power of Love 전곡 유튜브 팝송 Music Video 동영상
 
 

 
 

 
 
 

 
 
 

 
The Power of Love – Celine Dion 가사 해석 원곡 영어 한글발음
 
The whispers in the morning of lovers sleeping tight
더 위스퍼즈 인 더 모닝 오브 러버즈 슬리핑 타이트
 
깊이 잠든 아침 속삭이는 연인의 목소리가
 
 
 
Are rolling by like thunder now
 
아 롤링 바이 라이크 썬더 나우
 
지금 천둥처럼 울리고 있어요
 
 
 
As I look in your eyes
 
애즈 아이 룩 인 유어 아이즈
 
내가 당신의 눈을 들여다 봤을 때
 
 
 
 
 
 
 
I hold on to your whole body
 
아이 홀드 온 투 유어 호울 바디
 
난 당신의 온몸을 껴안고
 
 
 
And feel each move you make
 
앤 필 이치 무브 유 메이크
 
당신의 움직임 하나 하나를 느껴요
 
 
 
Your voice is warm and tender
 
유어 보이스 이즈 웜 앤 텐더
 
당신의 목소리는 따뜻하고 부드러워요
 
 
 
A love that I could not forsake
 
어 러브 댓 아이 쿠드 낫 포세이크
 
내가 버릴 수 없었던 사랑
 
 
 
 
 
 
 
‘Cause I’m your lady
 
코즈 아임 유어 레이디
 
내가 당신의 여자이기 때문이죠
 
 
 
And you are my man
 
앤드 유 아 마이 맨
 
그리고 당신은 나의 남자
 
 
 
Whenever you reach for me
 
웬에버 유 리치 포 미
 
당신이 내게 올 때마다
 
 
 
I’ll do all that I can
 
아일 두 올 댓 아이 캔
 
내가 할 수 있는 모든 것을 다 하겠어요
 
 
 
 
 
 
 
Lost is how I’m feeling lying in your arms
 
로스트 이즈 하우 아임 필링 라잉 인 유어 아임즈
 
길을 잃은 거 같을 때 당신 품에 안겨 누워요
 
 
 
When the world outside’s too much to take
 
웬 더 월드 아웃사이즈 투 머치 투 테이크
 
바깥 세상을 감당하기 힘들어질 때
 
 
 
That all ends when I’m with you
 
댓 올 엔즈 웬 아임 위드 유
 
당신과 함께 있으면 모든 게 해결되죠
 
 
 
 
 
 
 
Even though there may be times it seems I’m far away
 
이븐 도우 데어 메이 비 타임즈 잇 씸즈 아임 파 러웨이
 
내가 멀리 있는 것처럼 느껴질 때라도
 
 
 
Never wonder where I am
 
네버 원더 웨어 아이 엠
 
난 내가 어디 있는지 의심하지 않아요
 
 
 
‘Cause I am always by your side
 
코즈 아이 엠 올웨이즈 바이 유어 사이드
 
난 언제나 당신 곁에 있으니까요
 
 
 
 
 
 
 
‘Cause I’m your lady
 
코즈 아임 유어 레이디
 
내가 당신의 여자이기 때문이죠
 
 
 
And you are my man
 
앤드 유 아 마이 맨
 
그리고 당신은 나의 남자
 
 
 
Whenever you reach for me
 
웬에버 유 리치 포 미
 
당신이 내게 올 때마다
 
 
 
I’ll do all that I can
 
아일 두 올 댓 아이 캔
 
내가 할 수 있는 모든 것을 다 하겠어요
 
 
 
We’re heading for something
 
위아 헤딩 포 썸씽
 
우린 어딘가로 가고 있어요
 
 
 
Somewhere I’ve never been
 
썸웨어 아이브 네버 빈
 
내가 한 번도 가보지 못한 곳
 
 
 
Sometimes I am frightened but I’m ready to learn
 
썸타임즈 아이 엠 프라이튼드 밧 아임 레디 투 런
 
때로 겁이 나기도 하지만 난 배울 준비가 됐어요
 
 
 
Of the power of love
 
오버 더 파워 오브 러브
 
사랑의 힘을
 
 
 
 
 
 
 
The sound of your heart beating
 
더 사운드 오브 유어 하트 비팅
 
당신의 심장이 뛰는 소리는
 
 
 
Made it clear suddenly
 
메이드 잇 클리어 써든리
 
갑자기 모든 것을 분명하게 만드네요
 
 
 
The feeling that I can’t go on is light years away
 
더 필링 댓 아이 캔트 고 온 이즈 라이트 이어즈 어웨이
 
내가 유지할 수 없을 거라는 감정은 몇 광년이나 멀어졌어요
 
 
 
 
 
 
 
‘Cause I’m your lady
 
코즈 아임 유어 레이디
 
내가 당신의 여자이기 때문이죠
 
 
 
And you are my man
 
앤드 유 아 마이 맨
 
그리고 당신은 나의 남자
 
 
 
Whenever you reach for me
 
웬에버 유 리치 포 미
 
당신이 내게 올 때마다
 
 
 
I’ll do all that I can
 
아일 두 올 댓 아이 캔
 
내가 할 수 있는 모든 것을 다 하겠어요
 
 
 
Somewhere I’ve never been
 
썸훼어 아이브 네버 빈
 
내가 한 번도 가보지 못한 곳
 
 
 
Sometimes I am frightened but I’m ready to learn
 
섬타임즈 아이 엠 프라이튼드 밧 아임 레디 투 런
 
가끔 두렵기도 하지만 난 배울 준비가 되어 있어요
 
 
 
Of the power of love
 
오브 더 파워 오브 러브
 
사랑의 힘을
 
 
 
The power of love
 
더 파워 오브 러브
 
사랑의 힘
 
 
 
The power of love
 
더 파워 오브 러브
 
사랑의 힘
 
Sometimes I am frightened but I’m ready to learn
 
섬타임즈 아이 엠 프라이튼드 밧 아임 레디 투 런
 
가끔 두렵기도 하지만 난 배울 준비가 되어 있어요
 
 
 
Of the power of love
 
오브 더 파워 오브 러브
 
사랑의 힘을
 
 
 
The power of love
 
더 파워 오브 러브
 
사랑의 힘
 
[출처] https://bardland.tistory.com/588

Loading

14 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 072.Nothing’s Gonna Change My Love For You — Glenn Medeiros  (낫딩 고너 채인지 마이 러브 포 유 : 글렌 메데이로스) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 072.Nothing’s Gonna Change My Love For You — Glenn Medeiros  (낫딩 고너 채인지 마이 러브 포 유 : 글렌 메데이로스) [듣기/가사/해석]

 
 
[팝 / 듣기 / 가사해석] Glenn Medeiros – Nothing Gonna Change My Love For You
 
Nothing's Gonna Change My Love For You --- Glenn Medeiros.png
 

 

 
 
 
 
Glenn Medeiros – Nothing Gonna Change My Love For You
 
If I had to live my life without you near me
The days would all be empty
The nights would seem so long
만약 내가 너 없이 내 인생을 살아야 한다면
그 날들은 모두 공허할 거야
밤이 너무 길 것 같아
 
with you I see forever oh, so clearly
I might have been in love before
But it never felt this strong
너와 함께 난 영원히 봐. 그렇게 분명하게
전에 사랑에 빠졌을지도 몰라
하지만 이렇게 강하게 느껴본 적은 없었어
 
Our dreams are young and we both know
They’ll take us where we want to go
Hold me now
Touch me now
I don’t want to live without you
우리의 꿈은 젊고, 우리는 알아
꿈들이 우리가 가고 싶은 곳으로 데려다 줄 거야
지금 날 안아줘
나를 만져봐
너 없이 살고 싶지 않아
 
Nothing’s gonna change my love for you
You ought to know by now how much I love you
One thing you can be sure of
I’ll never ask for more than your love 
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
지금쯤이면 내가 널 얼마나 사랑하는지 알아야 해
한 가지 확신할 수 있는 것은
너의 사랑보다 더 많은 걸 바라지 않을 거야
 
Nothing’s gonna change my love for you
You ought to know by now how much I love you
The world may change my whole life through but
Nothing’s gonna change my love for you 
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
지금쯤이면 내가 널 얼마나 사랑하는지 알아야 해
세상은 내 인생을 바꿀 수 있지만
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
 
If the road ahead is not so easy
Our love will lead the way for us
Like a guiding star
만약 앞길이 그렇게 쉽지 않다면
우리의 사랑은 우리를 위해 앞장 설 거야
길을 안내하는 별처럼
 
I’ll be there for you if you should need me
You don’t have to change a thing
I love you just the way you are
내가 필요하면 내가 곁에 있을게
아무것도 바꿀 필요 없어
널 있는 그대로 사랑해
 
So come with me and share the view
I’ll help you see forever too
Hold me now
Touch me now
I don’t want to live without you
그러니 나와 함께 그 생각을 공유해
나도 영원히 볼 수 있게 도와줄게
지금 날 안아줘
나를 만져봐
너 없이 살고 싶지 않아
 
Nothing’s gonna change my love for you
You ought to know by now how much I love you
One thing you can be sure of
I’ll never ask for more than your love 
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
지금쯤이면 내가 널 얼마나 사랑하는지 알아야 해
한 가지 확신할 수 있는 것은
너의 사랑보다 더 많은 걸 바라지 않을 거야
 
Nothing’s gonna change my love for you
You ought to know by now how much I love you
The world may change my whole life through but
Nothing’s gonna change my love for you
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
지금쯤이면 내가 널 얼마나 사랑하는지 알아야 해
세상은 내 인생을 바꿀 수 있지만
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
 
Nothing’s gonna change my love for you
You ought to know by now how much I love you
One thing you can be sure of
I’ll never ask for more than your love
그 무엇도 널 향한 내 사랑을 바꿀 순 없어
지금쯤이면 내가 널 얼마나 사랑하는지 알아야 해
한 가지 확신할 수 있는 것은
너의 사랑보다 더 많은 걸 바라지 않을 거야
 
[출처] https://labelnoir.tistory.com/621
 
 

Loading

13 11월 2023

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 071.Open Arms — Journey (오픈 암스 : 저니) [듣기/가사/해석]

[팝송으로 배우는 영어] 한국인이 좋아하는 팝송 071.Open Arms — Journey (오픈 암스 : 저니) [듣기/가사/해석]

 
Journey – Open Arms [가사/해석/듣기/MV]
 
 
 
 
■ Journey – Open Arms
 
 
 
 
1981년에 발표한 저니 (Journey)의
 
앨범 [Escape] 수록곡..
 
 
 
저니의 걸출한 보컬리스트인
 
스티브 페리 (Steve Perry)와
 
키보디스트 조나단 케인이
 
공동으로 작곡한 곡..
 
 
 
앨범 [Escape]는 음악적,상업적으로
 
큰 성공을 거두면서 저니는
 
밴드 전성기 시절을 맞게 된다.
 
 
 
빌보드 앨범 차트 1위를 차지 하였고
 
앨범은 9백만장 이상이 팔려 나가는
 
그야말로 초대박 히트를 하게 된다.
 
 
 
다른곡에 비해 뒤늦게 1982년에
 
싱글로 발표된 ‘Open Arms’는
 
빌보드 싱글 차트
 
6주간 2위를 차지하였다.
 
 
 
스티브 페리의 호소력 있는
 
애절한 목소리가 매력적인 곡으로
 
최고의 락발라드중
 
한 곡으로 사랑 받고 있는 명곡이다.
 
 
 
한국인이 좋아하는 팝송
 
69위를 차지 하였다.
 
 
 
 
■ Journey – Open Arms [감상]
 

 

 

 
 
 
 
■ Journey – Open Arms [싱글]

Open Arms --- Journey 01.jpeg

 
 
■ Journey – Open Arms [감상/Live]
 
 
 
Lying beside you, here in the dark
 
Feeling your heartbeat with mine
 
Softly you whisper,
 
you’re so sincere
 
How could our love be so blind?
 
We sailed on together,
 
we drifted apart
 
And here you are by my side.
 
 
 
이 어둠 속에서 당신 곁에 앉아
 
나와 당신의 심장고동을 느끼며,
 
당신은 진심이라고 속삭이는군요
 
어떻게 우리사랑이
 
이렇게 맹목적일까요
 
우린 함께 항해를 했고
 
소원해지기도 했지만,
 
당신은 지금 내 옆에 있어요
 
 
 
So, now I come to you
 
with open arms
 
Nothing to hide,
 
believe what I say.
 
So, here I am with open arms
 
Hoping you see what your love
 
means to me Open arms
 
 
 
이제 난 숨김없이 당신께 왔어요
 
숨기는 건 아무 것도 없어요
 
내 말을 믿어 주세요
 
이젠 숨기는 것 없이 제가 여기 있어요
 
당신의 사랑이 나에게 얼마나
 
큰 의미인지 당신이 알아주길 바라며
 
숨김없이
 
 
 
Living without you, living alone
 
This empty house seems so cold.
 
Wanting to hold you,
 
wanting you near
 
How much I wanted you home
 
But now that you’ve come back,
 
turned night into day
 
I need you to stay
 
 
 
* REPEAT
 
 
 
당신 없이 홀로 이 빈집에서
 
사는 건 너무 싸늘해요
 
당신을 품에 안기를 바라고
 
당신을 원하고 내가 얼마나 당신이
 
돌아오기를 바랬는지….
 
하지만, 이제 당신이 돌아와
 
어둠을 빛으로 바꾸었어요
 
머물러줘요
 
 
 
* 반복
 
 
 
 
 
 
[출처] https://e-happy.tistory.com/entry/Journey-Open-Arms-%EA%B0%80%EC%82%AC%ED%95%B4%EC%84%9D%EB%93%A3%EA%B8%B0MV

Loading