[IT 혁신 디바이스][소프트웨어] Will ChatGPT Replace Developers? ChatGPT가 개발자를 대체할까요?
AI is buzzing again thanks to the recent release of ChatGPT, a natural language chatbot that people are using to write emails, poems, song lyrics and college essays. Early adopters have even used it to write Python code, as well as to reverse engineer shellcode and rewrite it in C. ChatGPT has sparked hope among people eager for the arrival of practical applications of AI, but it also begs the question of whether it will displace writers and developers in the same way robots and computers have replaced some cashiers, assembly-line workers and, perhaps in the future, taxi drivers.
It’s hard to say how sophisticated the AI text-creation capabilities will be in the future as the technology ingests more and more examples of our online writing. But I see it having very limited capabilities for programming. If anything, it could end up being just another tool in the developer’s kit to handle tasks that don’t take the critical thinking skills software engineers bring to the table.
ChatGPT has impressed a lot of people because it does a good job of simulating human conversation and sounding knowledgeable. Developed by OpenAI, the creator of the popular text-to-image AI engine DALL-E, it is powered by a large language model trained on voluminous amounts of text scraped from the internet, including code repositories. It uses algorithms to analyze the text and humans fine-tune the training of the system to respond to user questions with full sentences that sound like they were written by a human.
But ChatGPT has flaws—and the same limitations that hamper its use for writing content also render it unreliable for creating code. Because it’s based on data, not human intelligence, its sentences can sound coherent but fail to provide critically-informed responses. It also repurposes offensive content like hate speech. Answers may sound reasonable but can be highly inaccurate. For example, when asked which of two numbers, 1,000 and 1,062, was larger, ChatGPT will confidently respond with a fully reasoned response that 1,000 is larger.
OpenAI’s website provides an example of using ChatGPT to help debug code. The responses are generated from prior code and lack the capability to replicate human-based QA, which means it can generate code that has errors and bugs. OpenAI acknowledged that ChatGPT “sometimes writes plausible-sounding but incorrect or nonsensical answers.” This is why it should not be used directly in the production of any programs.
The lack of reliability is already creating problems for the developer community. Stack Overflow, a question-and-answer website coders use to write and troubleshoot code, temporarily banned its use, saying there was such a huge volume of responses generated by ChatGPT that it couldn’t keep up with quality control, which is done by humans. “Overall, because the average rate of getting correct answers from ChatGPT is too low, the posting of answers created by ChatGPT is substantially harmful to the site and to users who are asking or looking for correct answers.”
Coding errors aside, because ChatGPT—like all machine learning tools—is trained on data that suits its outcome (in this case, a textual nature), it lacks the ability to understand the human context of computing to do programming well. Software engineers need to understand the intended purpose of the software they’re creating and the people who will be using it. Good software can’t be built by cobbling together programs with regurgitated code.
For example, ChatGPT cannot understand the ambiguity in simple requirements. Although it is clear that if one ball just bounces and comes back but another bounces and then bounces again, the second ball has traveled further, ChatGPT struggles with this nuance; that nuance will be needed if these systems are ever to take over from developers.
It also has trouble with basic math, such as when it’s asked to determine which is greater and offered a choice between a negative and positive number. ChatGPT confidently tells us a correct summation of the space, but cannot understand that -5 is less than 4. Imagine your thermostats going haywire because the heating kicks on at 40 degrees Celsius instead of at -5 degrees Celsius because the AI program coded it that way!
Pre-trained AI code generation also raises some legal questions with regard to intellectual property rights; it cannot currently distinguish between code that is licensed in a restrictive or open fashion. This could expose people to licensing compliance risk if the AI borrows a prewritten line of code from a copyrighted repository. The problem has already prompted a class action lawsuit against a different OpenAI-based product called GitHub Copilot.
We need humans to create the software people rely on, but that’s not to say there couldn’t be a place for AI in software development. Just like automation is being used by security operations centers for scanning, monitoring and basic incident response, AI could serve as a programming tool for handling lower-level tasks.
This is already happening, to an extent. GitHub Copilot allows developers to use ChatGPT to improve their code, add tests and find bugs. Amazon offers CodeWhisperer, a machine language-powered tool designed to help increase developer productivity using code recommendations generated by natural language comments and code in the integrated environment. And someone has created a Visual Studio code extension that works with ChatGPT.
And one company is testing AI for developers. DeepMind, which shares a parent company with Google, released its own code generation tool, dubbed AlphaCode, earlier this year. DeepMind published the results from simulated evaluations in competitions on the Codeforces platform in Science magazine earlier this month under the headline Machine Learning systems can program too. Headline grammar aside, AlphaCode achieved an estimated rank within the top 54% of participants by solving problems “that require a combination of critical thinking, logic, algorithms, coding, and natural language understanding.” The abstract for the paper says: “The development of such coding platforms could have a huge impact on programmers’ productivity. It may even change the culture of programming by shifting human work to formulating problems, with machine learning being … responsible for generating and executing codes.”
Machine learning systems are becoming increasingly advanced each day; however, they cannot think like the human brain does. This has been the case for the past 40+ years of study into artificial intelligence. While these systems can recognize patterns and increase productivity for simple tasks, they may not always produce code as well as humans. Before we let computers do code generation en masse, we should probably see systems like AlphaCode rank in the top 75% of participants on a platform like Codeforces, though I fear this may be too much for such a system. In the meantime, machine learning can help with simple programming problems in the future, allowing developers of tomorrow to think of more complex issues.
At this point, ChatGPT won’t be disrupting any field of technology, especially not software engineering. Concern about robots displacing programmers is vastly overstated. There will always be tasks that developers with human cognition can do that machines will never be capable of.
사람들이 이메일, 시, 노래 가사 및 대학 에세이를 작성하는 데 사용하는 자연어 챗봇인 ChatGPT 의 최근 릴리스 덕분에 AI가 다시 활기를 띠고 있습니다 . 얼리어답터들은 그것을 파이썬 코드를 작성하고 쉘코드를 리버스 엔지니어링하고 C로 다시 작성하는 데 사용하기도 했습니다 . ChatGPT는 AI의 실용적인 응용 프로그램이 도래하기를 열망하는 사람들 사이에서 희망을 불러일으켰지만 로봇과 컴퓨터가 일부 계산원, 조립 라인 작업자, 그리고 아마도 미래, 택시 기사들.
기술이 점점 더 많은 온라인 작문의 예를 수집함에 따라 AI 텍스트 작성 기능이 미래에 얼마나 정교해질지 말하기는 어렵습니다. 그러나 나는 프로그래밍 능력이 매우 제한적이라고 생각합니다. 어쨌든 소프트웨어 엔지니어가 제공하는 비판적 사고 기술이 필요하지 않은 작업을 처리하기 위한 개발자 키트의 또 다른 도구에 불과할 수 있습니다.
ChatGPT는 인간의 대화를 시뮬레이션하고 박식하게 들리기 때문에 많은 사람들에게 깊은 인상을 남겼습니다. 인기 있는 텍스트-이미지 AI 엔진 DALL-E의 제작자인 OpenAI에서 개발한 이 제품은 코드 저장소를 포함하여 인터넷에서 스크랩한 방대한 양의 텍스트에 대해 훈련된 대규모 언어 모델로 구동 됩니다 . 그것은 알고리즘을 사용하여 텍스트를 분석하고 인간은 마치 인간이 쓴 것처럼 들리는 완전한 문장으로 사용자 질문에 응답하도록 시스템 훈련을 미세 조정합니다.
그러나 ChatGPT에는 결함이 있습니다. 콘텐츠를 작성하는 데 방해가 되는 것과 동일한 제한으로 인해 코드를 생성하는 데에도 신뢰할 수 없습니다. 인간 지능이 아닌 데이터를 기반으로 하기 때문에 문장이 일관되게 들릴 수 있지만 비판적으로 정보에 입각한 응답을 제공하지 못합니다. 또한 증오심 표현 과 같은 불쾌감을 주는 콘텐츠의 용도를 변경합니다 . 답변이 합리적으로 들릴 수 있지만 매우 부정확할 수 있습니다. 예를 들어, 1,000과 1,062, 두 숫자 중 어느 것이 더 큰지 물으면 ChatGPT는 1,000이 더 크다고 합리적 으로 대답합니다 .
OpenAI의 웹사이트는 ChatGPT를 사용하여 코드를 디버그하는 데 도움이 되는 예를 제공합니다. 응답은 이전 코드에서 생성되며 인간 기반 QA를 복제하는 기능이 부족합니다. 즉, 오류 및 버그가 있는 코드를 생성할 수 있습니다. OpenAI는 ChatGPT가 때때로 그럴듯하게 들리지만 부정확하거나 무의미한 답변을 작성한다는 점을 인정했습니다. ” 어떤 프로그램 제작에 직접적으로 사용해서는 안 되는 이유다.
신뢰성 부족은 이미 개발자 커뮤니티에 문제를 일으키고 있습니다. 코더가 코드를 작성하고 문제를 해결하는 데 사용하는 질문 및 답변 웹 사이트인 Stack Overflow 는 ChatGPT에서 생성된 엄청난 양의 응답이 있어 품질 관리를 따라갈 수 없다고 말하면서 일시적으로 사용을 금지했습니다. 인간. “ 전반적으로 ChatGPT에서 정답 을 얻는 평균 비율 이 너무 낮기 때문에 ChatGPT에서 만든 답변을 게시하는 것은 사이트와 정답 을 묻거나 찾는 사용자에게 상당히 해롭습니다 .”
코딩 오류는 차치하고 ChatGPT는 모든 기계 학습 도구와 마찬가지로 결과에 적합한 데이터(이 경우 텍스트 특성)에 대해 훈련되기 때문에 프로그래밍을 잘 수행하기 위한 컴퓨팅의 인간 컨텍스트를 이해하는 능력이 부족합니다. 소프트웨어 엔지니어는 자신이 만들고 있는 소프트웨어의 의도된 목적과 그것을 사용할 사람들을 이해해야 합니다. 역류된 코드로 프로그램을 짜맞추는 방식으로는 좋은 소프트웨어를 만들 수 없습니다.
예를 들어 ChatGPT는 단순한 요구 사항의 모호성을 이해할 수 없습니다. 하나의 공이 튀었다가 다시 돌아오고 다른 공이 튀었다가 다시 튀는 것이 분명하지만 두 번째 공은 더 멀리 이동한 것입니다. 이러한 시스템이 개발자로부터 인계받으려면 그 뉘앙스가 필요할 것입니다.
또한 어느 것이 더 큰지 결정하라는 요청을 받고 음수와 양수 중에서 선택을 제공하는 것과 같은 기본적인 수학에 문제가 있습니다. ChatGPT는 자신 있게 공간의 정확한 합계를 알려 주지만 -5가 4보다 작다는 것을 이해할 수 없습니다. 난방이 섭씨 -5도가 아닌 섭씨 40도에서 시작되기 때문에 온도 조절기가 고장 난다고 상상해 보세요. 방법!
사전 훈련된 AI 코드 생성은 또한 지적 재산권과 관련하여 몇 가지 법적 문제를 제기합니다. 현재는 제한적 또는 공개 방식으로 라이선스가 부여된 코드를 구분할 수 없습니다. 이로 인해 AI가 저작권이 있는 저장소에서 미리 작성된 코드 라인을 차용하는 경우 사람들이 라이선스 준수 위험에 노출될 수 있습니다. 이 문제는 이미 GitHub Copilot 이라는 다른 OpenAI 기반 제품에 대한 집단 소송을 촉발했습니다 .
사람들이 의존하는 소프트웨어를 만들려면 사람이 필요하지만 소프트웨어 개발에 AI가 들어갈 자리가 없다는 말은 아닙니다. 스캔, 모니터링 및 기본 사고 대응을 위해 보안 운영 센터에서 자동화를 사용하는 것처럼 AI는 하위 수준 작업을 처리하기 위한 프로그래밍 도구 역할을 할 수 있습니다.
이것은 이미 어느 정도 일어나고 있습니다. GitHub Copilot을 통해 개발자는 ChatGPT를 사용하여 코드를 개선하고 테스트를 추가하고 버그를 찾을 수 있습니다. Amazon은 통합 환경에서 자연어 주석 및 코드로 생성된 코드 권장 사항을 사용하여 개발자 생산성을 높이도록 설계된 기계 언어 기반 도구인 CodeWhisperer를 제공 합니다. 그리고 누군가 ChatGPT와 함께 작동하는 Visual Studio 코드 확장을 만들었습니다 .
그리고 한 회사는 개발자를 위해 AI를 테스트하고 있습니다. Google과 모회사를 공유하는 DeepMind는 올해 초 AlphaCode 라는 자체 코드 생성 도구를 출시했습니다. DeepMind는 Machine Learning systems can too program이라는 제목으로 이달 초 Science 잡지의 Codeforces 플랫폼 대회에서 시뮬레이션 평가 결과를 발표했습니다 . 헤드라인 문법은 제쳐두고AlphaCode는 “비판적 사고, 논리, 알고리즘, 코딩 및 자연어 이해의 조합이 필요한” 문제를 해결하여 참가자의 상위 54% 내에서 예상 순위를 달성했습니다. 논문의 초록은 이렇게 말합니다. “이러한 코딩 플랫폼의 개발은 프로그래머의 생산성에 막대한 영향을 미칠 수 있습니다. 기계 학습이 코드 생성 및 실행을 담당하면서 인간 작업을 문제 공식화로 전환함으로써 프로그래밍 문화를 바꿀 수도 있습니다.”
기계 학습 시스템은 매일 점점 더 발전하고 있습니다. 그러나 그들은 인간의 두뇌처럼 생각할 수 없습니다. 이것은 지난 40년 이상 인공 지능에 대한 연구의 경우였습니다. 이러한 시스템은 패턴을 인식하고 간단한 작업의 생산성을 높일 수 있지만 항상 인간만큼 코드를 생성하지는 않을 수 있습니다. 컴퓨터가 대량으로 코드를 생성하도록 허용하기 전에 AlphaCode와 같은 시스템이 Codeforces와 같은 플랫폼에서 참가자의 상위 75%에 속하는 것을 볼 수 있을 것입니다. 그 동안 기계 학습은 미래의 간단한 프로그래밍 문제를 해결하는 데 도움이 될 수 있으므로 미래의 개발자는 더 복잡한 문제를 생각할 수 있습니다.
이 시점에서 ChatGPT는 기술 분야, 특히 소프트웨어 엔지니어링 분야를 방해하지 않을 것입니다. 프로그래머를 대체하는 로봇에 대한 우려는 지나치게 과장된 것입니다. 기계가 결코 할 수 없는 일을 인간의 인지 능력을 가진 개발자가 할 수 있는 일이 항상 있을 것입니다.
사람들이 모여드는 시장 같은 곳에는 으레 야바위꾼들도 한자리를 차지하고 있었다. 동그라미가 표시된 카드 한 장, 아무 표시도 없는 카드 두 장, 이렇게 카드 세 장을 뒤집어 놓고 이리저리 섞은 다음, 동그라미 표시된 카드를 찾아보라고 부추긴다. 야바위꾼은 처음에는 누구나 알아볼 수 있도록 카드를 천천히 섞으며 내기를 걸도록 유혹한다.
눈썰미 없는 내가 봐도 오른쪽 맨 끝의 카드가 동그라미가 그려진 카드다. “단돈 천 원. 맞히면 두 배!” 이렇게 야바위꾼은 소리치며 흥을 돋운다. 주변의 아저씨들도 “가운데 카드다”, “아니, 오른쪽 카드야!”하며 야바위꾼의 흥에 맞춰 분위기를 띄운다. 야바위꾼은 “자, 어느 쪽이 동그라미냐?” 하며 카드를 뒤집어 확인하려고 한다. 구경꾼들 모두가 알고 있는 오른쪽 카드를 애써 외면하며 야바위꾼은 가운데 카드를 자꾸 뒤집으려고 한다. ‘아닌데, 그 카드가 아닌데. 오른쪽 카든데.’ 하는 생각이 들 정도였다. 그렇게 카드를 한 장 한 장 뒤집으며 오른쪽 카드가 동그라미 카드라는 것을 구경꾼들에게 확인해 준 뒤, 현란한 솜씨로 카드를 뒤섞으며 손놀림보다 더 현란한 화술로 돈을 걸도록 부추긴다. 유난을 떨며 돈을 걸어 당첨금을 받은 사람들도 몇 명 있었던 것 같다. 곳곳에 섞여 판의 흥을 돋우고 돈을 따는 사람들이 바람잡이라는 것을 그때는 알 수 없었다. 그저, 유심히 야바위꾼의 손놀림을 관찰할수록 동그라미 카드를 알아맞힐 수 있을 것 같은 생각이 들었다.
서울에 처음 올라왔을 무렵, 아저씨들이 모여 웅성대는 곳에서 처음 본 광경들이다. 카드 대신 작은 그릇 세 개를 가지고 하는 야바위도 있었던 것 같다. 작은 구슬 같은 것을 그릇 안에 넣고 이리저리 섞은 뒤, 구슬이 들어 있는 그릇을 찾아보라고 한다. 카드로 하는 야바위처럼 구슬이 들어 있는 그릇을 맞히는 것도 그다지 어려워 보이지 않았다. 이때에도 쉽게 돈을 딸 수 있을 것만 같은 유혹이 스멀스멀 기어오르는 듯했다. 불행인지 다행인지, 실지로 돈을 걸어 본 적은 없다. 워낙 새가슴에다 돈을 걸 만큼 주머니가 넉넉하지도 않았다.
이런 간단한 방법 말고도 거창한 도구를 동원한 경우도 있었다. 함석으로 만든 둥근 수조에 물을 담아 놓고 새끼 거북을 풀어 놓은 야바위도 본 적이 있다. 수조 테두리 쪽에 작은 칸막이들을 만들어 놓아 새끼 거북이 아무 칸막이에나 헤엄쳐 가게 한다. 새끼 거북이 어느 칸막이로 헤엄쳐 갈지 알아맞히는 방식이었던 것 같다. 미니 경마라고 할 만한 것도 있었다. 마치 수영장을 축소해 놓은 모형 같은 수조에서 거북이인가 물방개인가 정확히 기억은 나지 않지만, 아무튼 수영 잘 하는 놈들을 풀어 놓아 경주를 시키는 식이었다.
카드를 사용하든 큰 수조를 사용하든 야바위의 원리는 딱 한 가지일 것이다. 구경하는 사람이 정답을 맞혀서 돈을 딸 수 있다는 마음을 불러일으키고 돈을 걸게 한 뒤, 결국은 능숙한 솜씨로 돈을 털어 가는 것. 그래도 이런 수조에서 야바위꾼들이 어떻게 자기들 마음대로 원하는 결과를 얻기 위해 ‘승부 조작’을 하는지 가늠할 수 없어 신기하기만 했고, 그런 만큼 보기 드문 구경거리인 것만은 분명했다. 아마도 미세한 전류를 조작하는 식이 아니었을까 추측해 볼 뿐이었다.
이런 야바위 가운데 익숙한 것으로 박보장기가 있었다. 장기 묘수 풀이의 한 종류인데, 장기판에 남아 있는 기물이 몇 개 되지 않는다. 판이 거의 끝나 더 이상 둘 수가 있나 싶은 배치였다. 그런데 장기를 둘 줄 아는 사람이 조금만 찬찬히 살펴보면 금방 수가 날 것처럼 보인다. 박보장기판의 분위기도 다른 야바위판과 별반 다르지 않다. 곳곳에 바람잡이가 자리를 해서 돈은 걸어 아깝게 지기도 하고 훈수를 두기도 하고 돈을 걸어 보라고 부추기기도 한다. 평범한 수준의 장기 실력이 있는 사람의 눈에는 서너 수쯤에 함정이 있다는 것을 알아볼 수 있다. 그런 함정 수를 알고 있는 사람에게는 도저히 질 수 없는 판으로 보이게 마련인가 보다. 그래서 돈을 걸고 장기를 두어 보지만 야바위꾼은 생각지도 못한 수로 응수하며 돈을 쓸어간다. 이런 모습을 지켜보는 사람 가운데 장기를 제법 두어 본 사람도 있게 마련이다. 이런 사람이 보기에 사람들이 걸려드는 함정 수를 피할 방법이 빤히 보인다. 그뿐만 아니라 그 다음에 진행될 수도 금세 간파한다. 일곱 수나 여덟 수쯤에 함정이 있다는 것을 알아차린 것이다. 그렇게 몇 개의 함정수를 넘어 수를 보는 순간, 무조건 이길 수 있다고 믿게 된다. 이제 박보 장기판이 새로운 국면에 들어선다.
바람잡이가 그런 호구에게 들러붙어 함께 수를 연구하는 도움이처럼 행세한다. 호구와 이렇게 저렇게 의논하며 이길 수밖에 없는 수를 찾았다고 호구가 확신하도록 부추긴다. 이제 푼돈을 놓고 벌이는 심심풀이 판을 훨씬 넘어서는 순간이다. 호구는 큰돈을 딸 수 있다는 기대에 잔뜩 부풀어 있다. 바람잡이가 이 틈을 놓칠 리 없다. 바람잡이가 호구를 부추겨 천만 원이든 이천만 원이든 마련해 오게 한다. 그 뒤의 스토리는 빤한 결말로 이어질 뿐이다. 시골 장터에서 노인을 상대로 이런 사기가 자주 일어났는데, 십여 년 전까지도 신문에 토막 기사로 실렸던 기억이 난다.
박보장기는 장기의 묘수풀이를 이르는 일반 명사인데, 우리나라 박보장기판에서 가장 흔하게 등장하는 그 묘수풀이가 초보든 고급자든 접근하기 쉽고 여러 함정 수가 있어서 야바위꾼들의 구미에 딱 맞는 묘수풀이인 것 같다. 말하자면 장사가 되는 아이템인 것이다. 이 아이템에 대해 프로 장기 기사가 해설하는 것을 티브이에서 본 적이 있다. 서로 최선의 수를 둘 경우, 이십 수가 훌쩍 넘어가는 복잡한 수순을 거쳐야 이길 수 있다. 우리 같은 보통사람들이야 현란하게 진행되는 수순을 그저 멍하니 쳐다볼 뿐이다. 그러므로 돈 보따리를 들고 박보장기판에 찾아온 시골 노인이 야바위꾼을 상대로 돈을 따간다는 것은 그 노인의 꿈에서나 이루어질 일이다.
《스팅》
어렸을 때 영화 《스팅》이 친구들 사이에서 한창 화제 거리인 때가 있었다. “너, 그 장면 봤지? 열차 간에서 말이야 폴 뉴먼이 술 취한 척 카드 게임 하는 장면.” 이렇게 한 친구가 말하자, 다른 친구가 바로 맞장구쳤다. “봤지. 진짜 신기했어. 분명히 3 포카였는데 마지막에 카드가 바뀌잖아.” 잔뜩 흥분해 지금 극장에 걸려 있는 《스팅》 이야기에 들떠 있는 친구들 사이에서 나는 아무 말도 할 수 없었다. 그렇게나 재미있는 영화를 나는 보지 못했다. 볼 수 있다는 희망이 없어서 더 침울했는지도 모르겠다. 영화를 볼 돈도 없고, 영화를 보여 줄 형이나 삼촌도 가까이에 없었다.
영화를 볼 수 없었던 친구들 몇 명끼리는 ‘구멍치기’에 대한 얘기를 나눴는지도 모르겠다. 극장에서 표를 받는 ‘기도 아저씨’ 몰래 이른바 ‘개구멍’ 같은 곳으로 들어가 공짜로 영화 보는 방법을 구멍치기라고 불렀다. 당시 《스팅》이 상영되던 제일극장은 제주시의 번화가인 칠성통에 있었는데, 바로 옆 건물 벽과 조그만 틈이 있기는 했다. 그틈 사이로 몰래 타고 올라가 화장실 문으로 들어가는 방법이다. 오, 그런 방법이 있었어? 하며 호기심이 당겼지만, 현실에서는 이루기 어려운 소망에 지나지 않았다. 어느 동네에 사는 어떤 애들이 제일극장에 구멍치기를 하다가 기도에게 걸려 얻어터지고 몇 시간씩 벌을 선 적이 있었다는 것이다.
이렇게 보고 싶은 마음을 접어야 했던 《스팅》(1973년, 조지 로이힐 감독)을 한참 뒤에야 볼 수 있었다. 과연 영화는 첫 장면부터 박진감 있게 진행되었다.
미국 시카고 외곽에서 갱단의 조직원인 젊은 청년이 큰돈을 다른 조직원에게 전달하는 임무를 수행하기 위해 사무실을 나선다. 골목길에 나서자 “저놈 잡아라. 소매치기다!” 하는 소리가 저쪽에서 들린다. 소리 나는 곳을 돌아보니 몸집이 날렵한 젊은 놈이 이쪽으로 잽싸게 달려오고 있다. 저 뒤쪽에서는 계속해서 소매치기 잡아라 하는 소리가 들린다. 갱단 조직원 바로 뒤에는 잘 차려입은 젊은 신사가 달려오는 소매치기를 뒤돌아보고 있다. 잘 생긴 로버트 레드포드다. 레드포드는 들고 있던 서류 가방을 소매치기의 무릎 높이로 솜씩 좋게 던진다. 이 타이밍이 어찌나 적절했던지 소매치기는 가방을 피하느라 폴짝 뛰다가 불안한 착지 때문에 땅에 쓰러지고 지갑을 빠뜨린 채 얼른 다시 일어나 잽싸게 도망친다. 떨어진 지갑은 지켜보던 조직원이 줍는다. 지갑 안에는 지폐가 두둑하게 담겨 있다. 저 뒤에서 소매치기 피해자는 여전히 소리를 지르며 길바닥에 누워 있다. 아마 큰 부상을 당한 듯 보인다. 더 이상 소매치기를 따라가 잡을 수 없다고 생각했는지 레드포드가 피해자가 있은 쪽으로 달려간다. 지갑을 든 조직원도 덩달아 달려간다.
피해자는 한쪽 다리에 큰 상처를 입고 피를 흘리는 와중에도 자꾸 일어나 걸어가려고 시도한다. 하지만 상처 입은 다리로는 제대로 설 수조차 없는 지경이다. 피해자는 조직원에게 다급하게 말한다. 네 시까지 마피아 두목에게 큰돈을 전달해야 한다고, 제 시간에 그 돈을 전달하지 못하면 자기 사업이고 목숨이고 모두 끝장이라고. 옆에서 지켜보는 레드포드는 뭘 믿고 생판 처음 보는 이 사람한테 큰돈을 맡기냐고 핀잔을 주지만, 피해자는 아랑곳하지 않고 조직원에게 필사적으로 매달리듯 말한다. 그러면서 수고비로 조직원에게 100달러를 건네주며 종이를 돌돌 말아 놓은 돈뭉치를 안겨준다.
조직원이 얼떨결에 돈뭉치를 받아들었지만, 레드포드가 조직원의 손에서 냉큼 돈뭉치를 가져가더니 아주 안전하게 돈을 간수해야 한다면서 조직원이 갖고 있는 돈도 달라고 한다. 조건반사를 일으킨 것처럼 조직원은 자기 돈 봉투를 안주머니에서 꺼낸다. 레드포드는 재빨리 조직원의 돈 봉투를 잡아채고, 피해자의 돈뭉치에 조직원의 돈 봉투를 같이 넣어 다시 돌돌 만 다음, 이렇게 안전하게 간수해 가야 한다면서 바지춤에 돈뭉치를 넣는다. 일종의 시범 보이기 같은 것이다. 레드포드가 바지춤에 넣었던 돈뭉치를 바로 꺼내 조직원의 바지춤에 넣어 주며 마피아 두목에게 잘 전달해 달라고 당부한다.
이 모든 과정이 순식간에 벌어졌다. 조직원은 얼떨떨해 하며 상황에 실려 갈 뿐이다. 그 와중에 머릿속에는 이게 웬 떡이냐 하는 생각만 가득했을 것이다. 바지춤에 돈뭉치를 넣은 조직원은 잽싸게 골목길을 빠져나와 큰길로 나서서 택시를 잡아탄다. 물론 피해자가 전달해 달라고 말한 방향과 정반대 방향으로 가자고 한다. 룰루랄라 휘파람을 불며 바지춤에서 돈뭉치를 꺼낸다. 순간 조직원의 얼굴은 사색이 된다. 돈뭉치가 아니라 종이일 뿐이다. 레드포드가 바지춤에 넣으며 돈뭉치를 바꿔치기 한 것이다. 다른 조직원에게 전달해야 하는 거금 만 이천 달러를 감쪽같이 털렸다. 우리가 흔히 ‘네다바이’라고 부르는 수법에 당한 것이다.
《스팅》은 1936년 미국의 시카고와 뉴욕을 무대로 펼쳐지는 사기꾼들의 이야기를 다루고 있는데, 위에서 말한 사기 수법은 짧은 상황극처럼 순식간에 펼쳐진다. 레드포드와 피해자와 소매치기, 이 세 사람이 한패가 되어 각자 맡은 역할을 연기하는 일종의 상황극이다. 그런데 레드포드 일당이 호구를 찍을 때 갱단의 조직원이라는 것을 알고 찍은 것은 아니었다. 아무리 사기꾼이라도 갱단 조직의 돈이라는 것을 알고도 털려고 하지는 않을 것이다. 그저 지나가는 행인 가운데 제법 현금을 가지고 있는 듯 보이는 사람을 찍어 사기극을 벌였을 뿐이다. 하지만 돈 앞에서 인정사정 봐 줄 갱단이 어디 있겠는가? 레드포드는 쫓기는 신세가 되고 피해자 역할을 한 루서는 살해당하고 만다. 루서는 레드포드의 멘토이기도 하고, 평생 사기술로 잔뼈가 굵은 인물이다. 사기꾼들 사이에 신망이 두터워 도와주려는 친구들도 많다. 루서가 살해당하면서 이야기는 루서에 대한 복수극으로 전개되고, 복수의 수단으로 기상천외한 사기술이 동원되게 된다. 레드포드가 루서의 오랜 친구인 폴 뉴먼을 찾아가고 옛 친구들이 모여들어 루서를 살해하도록 명령을 내린 갱단 두목, 로버트 쇼를 터는 이야기가 경쾌한 주제곡과 함께 경쾌한 템포로 이어진다.
로버트 쇼를 상대로 벌이는 사기는 스케일 면에서 앞서의 ‘네다바이’하고는 완전히 다르다. 진짜 사무실을 구하고 진짜 사설 경마장처럼 시설을 꾸며 놓는다. 시설만이 아니다. 그곳에서 경마 방송을 하는 아나운서, 경마장 매니저, 돈을 거는 손님들마저도 같은 패거리로 채운다. 그야말로 “가공의 극장”을 차리고 완벽한 무대장치와 온갖 배우들이 출연하는 5막짜리 연극을 상연하는 것처럼 사기를 펼친다. 오로지 갱단 두목인 로버트 쇼 한 사람만을 위한 극장이 차려진 것이다. 앞에서 말한 열차 장면은 로버트 쇼를 이 가짜 극장으로 꾀어내기 위한 미끼일 뿐이다.
《스팅》 영화를 보는 내내 교묘한 사기 수법과 치밀한 피해자의 심리묘사가 어우러지고 거기에다 서스펜스와 유머까지 이어지니 시간가는 줄 몰랐다. 특히나 갱단의 거물 로버트 쇼를 요리조리 요리하는 사기꾼들의 수법이 감탄스러운데, 실제로 있었던 일이 아니라면 상상만으로 그런 수법들을 생각해 내기는 어려워 보였다.
『빅콘 게임』
아닌 게 아니라, 《스팅》의 원작이 따로 있는 것은 아니지만 사기 수법의 세세한 내용까지 《스팅》에 강한 영감을 준 책이 있었다. 19세기말부터 발전을 거듭하며 1930년대에 절정을 이룬 미국의 신용 사기 수법을 내부자처럼 속속들이 파헤친 책, 『빅콘 게임』이다. 이 책의 저자 데이비드 모러David Maurer(1906∼1981)는 사기를 전문으로 수사한 수사관이나 경찰도 아니고, 취재기자도 아니고, 실제로 사기를 쳐 본 사기꾼도 아니다. 의외의 일이지만, 언어학자다. 생각해 보면 수많은 사기꾼들의 수사 기록을 검토한다고 해도 세세한 수법들을 속속들이 알기는 어려울 것이다. 더군다나 모러에 따르면, 신용 사기 피해자의 90퍼센트 정도는 아예 신고를 하지 않을 뿐더러 잡힌 신용 사기꾼이라도 여기저기 뇌물을 써서 대부분이 빠져나가고 실형을 사는 사기꾼은 극히 소수라고 한다. 이런 신용 사기꾼들이 수사 과정에서 순순히 자기 수법을 밝히지는 않을 것이다. 그렇다고 기자에게 털어놓을 리도 없다. 신용 사기꾼이 자기 평생의 밥줄인 사기 수법을 책으로 써서 만천하에 공개할 리도 만무하다.
데이비드 모러는 일생을 암흑가의 언어를 연구한 학자로서, 그 가운데 사기꾼들의 언어를 연구하는 데 몰두했는데, 이 책 『빅콘 게임』은 “수많은 사기의 배경을 조사하다가 탄생한 부산물”이라고 저자는 밝히고 있다. 저자는 연구 과정의 부산물이라고 겸손한 태도를 보이고 있지만, 사기꾼들 자신이 털어놓지 않으면 “손에 넣을 수 없는 사실”들로 가득한 책이다.
모러가 범죄자들과 격의 없는 관계를 맺으며 내밀한 이야기를 들을 수 있었던 데에는 필드워크에 특출한 재능이 있었음에 틀림없다. 지적 능력이나 인화력 외에도 범죄자들에게 신뢰를 얻기 위해서는 강한 체력과 배포가 뒷받침되어야 했을 것이다. 그래서 실제로 “얼어붙을 듯한 한겨울 날씨에 무거운 어망을 걷어 올리는 작업을 돕거나, 밀주 공장으로 가는 시골길에서 진창에 빠진 자동차를 함께 밀 수 있을만큼 건장한 어깨와 힘센 팔을 지닌 거구의 사내”였다고 한다.
『빅콘 게임 The Big Con: The Story of the Confidence Man』은 미국에서 1940년에 출간된 꽤 오래된 책이다. 한국어판으로는 2004년에 출간되었지만 아쉽게도 지금은 절판되어 구하기가 쉽지 않다. 제목에서 Con은 신용 사기를 뜻하는 Confidence를 줄여 쓴 말이지만, Con 자체로 사기를 뜻하는 말로 흔히 쓰인다. 그러므로 빅콘Big Con은 대형 사기쯤으로 번역할 수 있는 말이다.
《스팅》에서 보면, 첫 장면에 나온 사기는 숏콘이고 로버트 쇼를 상대로 벌이는 사기가 빅콘이다. 빅콘은 무대장치가 잘 갖춰진 가짜 극장에서 주로 이루어지는데, 이런 가짜 극장은 《스팅》에서처럼 가짜 사설 경마장일 수도 있고, 링이 있는 권투 경기장이나 트랙이 있는 도보 경주 경기장일 수도 있고, 사설 증권회사일 수도 있다. 사기가 이루어지는 이런 곳을 모두 빅스토어라고 부른다고 한다. 그러므로 빅스토어를 무대로 일어나는 사기는 빅콘이다. 소소하게 털어먹는 숏콘과 엄청난 돈을 챙기는 빅콘 사이의 차이는 “보내기”가 있느냐 없느냐로 구분된다고 모러는 말한다.
예를 들어, 보통의 박보장기는 그저 호구들의 주머니에 있는 돈을 터는 데 만족한다. 그런데 돈을 가지러 집으로 간 시골의 노인의 예처럼 돈을 딸 수 있다는 욕심에 자기 돈이든 친척이나 친구의 돈이든 있는 대로 돈을 끌어 모아 다시 돌아오게 하는 수법이 “보내기”인 것이다. 이런 “보내기” 단계가 있는지 없는지가 숏콘과 빅콘을 나눈다. 따라서 빅콘으로 얻을 수 있는 돈의 규모는 《스팅》에서처럼 50만 달러에 이르는 엄청난 돈이 될 수 있다(정확한 것은 아니겠지만 당시 금액에 열 배 정도로 생각해야 돈 가치를 가늠할 수 있을 것이다.)
데이비드 모러에 따르면 신용 사기는 규모나 무대장치에 관계없이 똑같은 원리에 따른다고 한다. 몇 단계를 반드시 거쳐야 원하는 결과를 얻을 수 있다는 것이다.
우선 먹잇감을 찍는 일부터 시작한다. 돈 좀 있어 보이는 호구를 고르는 일이다. 호구에게 자연스럽게 접근해 환심을 사는 단계가 이어진다. 이때 사기꾼은 세련된 매너나 화술로 호구에게 믿음을 주고 호감을 얻을 수 있도록 품위 있게 행동해야 한다. 이런 일을 담당하는 인물을 미끼라고 부른다.
미끼는 신뢰가 쌓인 호구가 사기의 총책임자라 할 수 있는 인물을 만나게 유도한다. 인사이드맨으로 불리는 이 사람은 《스팅》으로 치면 폴 뉴먼과 로버트 레드포드를 합쳐 놓은 인물쯤 될 것이다. 주가조작의 달인일 수도 있고, 월스트리트에서 영향력 있는 인물로서 비공식 거래를 책임지는 사람일 수도 있다. 어쨌든 인사이드맨은 마음만 먹으면 큰돈을 벌 수 있는 위치에 있는 인물처럼 연기한다. 호구는 인사이드맨의 멋진 풍모와 부유해 보이는 모습, 돈을 벌 수 있는 능력에 끌려 한없이 신뢰를 보내는 경우가 많다고 한다. 이렇게 신뢰를 얻은 인사이드맨이 호구에게 은밀하게 돈 벌 수 있는 방법을 제안한다. 물론 그다지 정직한 방법은 아니다. 하지만 큰돈을 벌 수 있는 확실한 방법이다. 경마 결과를 미리 알 수 있다든지 주가를 조작해 큰돈을 벌 수 있다는 식으로 호구를 부추기는 것이다.
이제 호구는 돈 벌 욕심에 안달이 난다. 집으로 돌아가 있는 돈 없는 돈 다 끌어 모아 스토어로 돌아온다. 사기꾼들이 호구의 돈을 빅스토어에서 털어먹으며 사기극은 절정에 이른다. 사기를 친 다음에는 되도록 빨리 현장을 뜬다. 혹시 피해자가 고소하더라도 미리 매수해 놓은 경찰이 피해자를 잘 얼러 돌려보낸다. 물론 마지막 단계까지 가지 않도록 교묘한 방법을 동원한다. 언제나 빠져나갈 구멍을 잘 마련해 두는 것이다.
피해를 당한 호구를 떼어 놓기 위해 흔히 쓰는 출구전략 가운데 『빅콘 게임』에 나오는 사례 하나를 살펴보자. 가짜 증권회사에서 주식 투자로 사기를 치는 경우에 쓰는 마무리 수법이다. 큰돈이 걸린 마지막 베팅에서 월스트리트의 큰손이 보낸 결정적인 전보가 도착한다. 어느 회사 주식을 얼마에 팔라는 정보가 적힌 전보. 인사이드맨이 미끼에게 전보를 보여 주며 이 회사 주식을 매매하라고 지시한다. 미끼는 호구를 구슬러 인사드맨에게 데려온 자이고 그동안 호구와 함께 지내면서 인사이드맨에게서 얻은 정보로 제법 돈을 번 자이다. 물론 호구는 미끼가 인사이드맨과 한패라는 것을 전혀 눈치 채지 못한 상태다.
미끼는 의기양양하게 창구로 가서 그 회사 주식 매수 주문을 낸다. 물론 이 돈은 호구가 가져온 돈이다. 호구는 자기 돈과 인사드맨의 돈, 미끼의 돈도 같이 들어가 있는 것으로 알고 있지만 사실은 호구의 돈만 들어가 있다. 어차피 가짜로 차려진 증권회사이므로 모든 돈은 사기꾼 패거리들에게 돌아가게 되어 있다. 어쨌든 호구는 막대한 돈이 손만 뻗으면 잡을 수 있는 곳에 와 있다는 생각에 풍선처럼 부풀어 있다. 주문을 넣은 미끼가 전표를 가지고 인사이드맨과 호구가 있는 곳으로 온다. 그 순간 인사드맨은 사색이 되어 소리친다.
“하느님 맙소사, 사다니! 팔라고 했잖아. 공매도하라고! 이 전보 안 보여? 우린 이제 망했어.”
공매도는 주식을 들고 있지 않은 상태에서 미리 팔자 주문을 내놓고 주가가 떨어지면 주식을 사서 다시 갚는 것이다. 공매도를 해야 했는데 반대로 매수 주문을 냈으니 모든 돈을 날리게 생겼다. 호구는 머리가 하얘진다. 호구는 “머릿속의 계획이 카드로 만든 집처럼 와르르무너져 내리고, 그는 추락한다.”
이제 모든 잘못은 미끼가 뒤집어쓰게 된다. 인사이드맨은 미끼에게 욕설을 퍼붓는다. 호구는 인사이드맨이 매매하라고 했지 공매도하라는 얘기를 듣지 못했다고 변명한다. 이렇게 변명하는 못난 미끼에게 호구는 살의를 느낀다. 하지만 어쩔 수 없는 노릇이다. 미끼 또한 전 재산을 날린 빈털터리가 되었으므로. 누구를 탓할 수도 없는 처지가 된 것이다.
사기공화국 풍경
사기에 관한 한 우리나라도 결코 미국에 못지않게 번창하고 있다. “생활형 검사” 김웅이 쓴 『검사내전』의 1부 제목이 “사기공화국 풍경”이다. 맨 처음 나온 이야기가 “후덕하고 진실한 인상”의 할머니 이야기이다. 할머니의 사기 수법은 비즈니스에 기반을 두고 있다. 이름 하여 어음 사기. 먼저 건실한 유통업체를 인수한다. 사장은 물론 바지 사장을 앉힌다. 회사를 인수한 뒤 꾸준히 거래를 유지하며 신뢰를 쌓는다. 이때 결제 수단이 약속어음인데 제 날짜에 어음 결제를 잘 해 준다. 이런 식으로 1년 정도 신뢰를 쌓은 다음 사기에 들어간다. 대기업에서 연말 선물로 대량 주문이 들어왔다는 식으로 엄청난 양의 물건을 거래처에 주문을 낸다. 쉽게 현금화할 수 있는 “알루미늄 괴나 랩톱”같은 물건을 대량으로 사들이는 것이다. 어음 결제의 속성상 3개월이나 6개월 뒤에 결제가 이루어지므로 주문한 물량을 가로채 달아날 시간이 충분하다.
대량 주문을 받은 업체는 이런 어음 거래의 위험을 잘 알고 있기 때문에 고민에 빠져들게 된다. 몇 개월 뒤에 어음이 제대로 결제되기만 한다면 납품자 입장에서는 제법 큰돈을 벌 수 있다. 그런데 제대로 결제가 될까 하는 고민에 빠지는 것이다. 일부 피해자들은 그동안 성실히 거래해 온 거래 실적을 믿고 상품을 납품했다. 갑작스런 물량에 의심을 품은 업체도 할머니는 가볍게 속아 넘겼다. SK텔레콤에 납품할 물건이라며 가짜 SK텔레콤 부장을 내세워 간단히 속아 넘긴 것이다. 가짜 명함을 만들고 대기업 부장 행세를 하는 인물이 SK텔레콤에 직접 납품하라며 SK텔레콤 본사 주차장에서 물건을 넘겨받는 식이었다. 가짜 부장이 가짜 명함을 만들고 방문자 자격으로 SK텔레콤 본사 주차장에 들어가는 것은 손쉬운 일이다. 의심을 품은 업체조차도 이런 허술한 속임수에 모두 속아 넘어갔다고 한다.
피해자들이 피해를 입었다는 것을 알게 되기까지는 몇 달이 걸린다. 어음 결제일이 되어서야 비로소 결제 대금이 안 들어온다는 것을 알게 되기 때문이다. 그래도 속았다는 것을 인정하지 않는 피해자들이 많았다고 한다. 도저히 사기 칠 인상의 할머니가 아니었다는 것이다. 납품한 물건이 ‘땡처리’ 시장에 나오고 나서야 고소가 이루지고, 그런 뒤에도 바지 사장을 쫓느라 또 몇 달이 흘러간다. 바지 사장이 잡히고 나서야 할머니의 존재가 드러나지만, 그러는 사이에 할머니는 종적을 감춘 지 오래다. 할머니를 수배한 뒤 사건을 기소중지하면 또 1∼2년이 지나간다.
이 할머니의 사기 수법은 수십 개의 중소기업을 들어먹는 데 그치지 않았다. “대한민국 검사”들마저도 가지고 놀았다. 수배를 풀기 위해 담당 검사실로 불시에 들이닥치기도 여러 번이라고 한다.
김웅 검사에 따르면 우리나라 검사들은 2년마다 인사이동이 있다. 그러니 새로 부임한 검사는 기소중지된 기존 사건에 대해 알 수가 없다. 새로운 검사에게 사건이 재배당된 것을 확인한 할머니가 “느닷없이 검사실로 쳐들어온다.” 토요일에도 오전 근무를 할 시절이니 퇴근하기 얼마 전 시간을 절묘하게 골라 쳐들어오는 것이다. 그러면서 욕설과 고함을 질러대며 자기를 왜 수배해 놓았느냐며 소리를 지른다. 이른바 “선빵”을 날리는 수법이다. 그런 기세에 눌린 신임 검사는 무언가 실수를 했구나 싶어 쩔쩔매게 된다. 부랴부랴 사건 기록을 찾지만 이때에도 시간이 걸린다. 이제 퇴근시간이 점점 다가오는데 사건을 세세하게 검토할 여유가 없다. 제 발로 걸어 들어온 인자하게 생긴 할머니가 무슨 큰 죄를 지었겠는가? 구태여 지금 체포할 필요가 있겠는가? 지금은 돌려보내고 천천히 기록을 살펴본 뒤 다시 불러 조사하면 되겠지. 이런 식으로 사태가 진행되어 왔다는 것이다. 그러니 사기 전력만 34회에 이르고 수백억 대의 어음 사기를 저질러도 제대로 처벌받지 않고 김웅 검사에게까지 넘어오게 된 것이다.
할머니가 김웅 검사실로 쳐들어온 토요일 오전, 김웅 검사는 당직 근무 중이라 밤 12시까지 근무해야 하는 날이었다고 한다. 갓 부임한 어린 검사가 할머니 예상과 달리 사건 기록을 몇 시간째 읽는 모습을 보고 사기꾼 할머니는 점점 불안해진다. 현기증이 난다는 둥 예전에도 응급실에 늦게 가는 바람에 전신마비가 올 뻔했다는 둥 꾀병을 부렸다. 그러다 뒷부분까지 사건 기록을 읽고 있는 김웅 검사를 보면서 정체가 드러날까 두려워진 할머니는 결국 웩웩 소리를 치더니 거품을 물고 쓰러졌다. 검사실에서 조사받던 피의자가 거품을 물고 쓰러져 경련을 일으키고 있으니 응급실로 급히 실어가야 할 상황이었다. 그때 김웅 검사는 “그냥 머릿속이 까매졌다”고 한다. 119에 연락하는 것마저 까먹을 정도로 당황스러웠다고 한다. 그런데 잠시 뒤, 김웅 검사는 할머니가 꾀병을 부리고 있다는 것을 알아차렸다. 그 과정이 참으로 기발하고 재미있다.
사람의 코는 모양이 제각각이듯 좋아하는 향에 대한 기호도 천차만별이다. 어떤 사람은 꽃 냄새를 좋아하지만, 어떤 사람은 암모니아 냄새를 좋아하기도 한다. 나는 세제 냄새를 좋아했다. 왜냐고 묻지는 마시라. 기호에는 원래 이유가 없다. 각자의 독특한 기호는 가끔 예상치 못한 곳에서 밥값을 하기도 한다. 할머니의 입에 다가간 순간, 뭔가 익숙한 냄새가 났다. 어디선가 아주 친근하게 맡아봤던 이 청초한 냄새는? 알 듯 말 듯 콧속과 머릿속을 맴도는 이 냄새는? 그렇다! 그것은 ‘하이타이’ 냄새였다. (김웅, 『검사내전』, 32쪽)
노련한 사기꾼답게 할머니는 최후의 카드를 준비해 온 터였다. 하이타이를 환丸으로 만들어 온 것이다. 조사가 자기 뜻대로 되지 않으니 하이타이 환을 입에 놓고 침으로 녹이며 게거품을 물고 실신 연기를 했다. 검사가 하이타이 냄새를 알아차리지 못했다면 또 다시 응급실로 실려 가고 수사는 또 지지부진해졌을 것이다.
혼자서 씩 웃는 사기꾼
일찍이 단테 알리기에리Dante Alighieri(1265∼1321)도 지옥에 사기꾼을 위한 자리를 마련해 놓았다. 펄펄 끓어오르는 역청 지옥이다. 부절제의 죄나 폭력의 죄를 범한 자들보다 더 심한 벌을 받도록 사기꾼들을 역청 지옥에 넣었다. 단테의 『신곡』 지옥 편 22곡에 나오는 내용이다. 여기서 단테는 죄인들을 처벌하는 악마들마저 속이는 사기꾼의 모습을 그리고 있다. 자신을 처벌하려는 악마에게 사기꾼이 말한다. 잠시 물러나 있으면 휘파람을 불어 역청 속에 있는 다른 사기꾼들을 불러내겠다고. 악마가 잠시 물러난 사이에 사기꾼은 잽싸게 역청 속으로 도망쳐 버린다. 사기꾼을 쫓아가던 악마들이 서로 다투다 역청에 빠지는 수모를 당하기도 한다.
19세기의 작가 에드거 앨런 포Edgar Allan Poe(1809∼1849)는 사기꾼의 속성을 「사기술」이라는 짧은 글에 압축적으로 표현했다. 인간 외에 사기 치는 동물은 없다며 이렇게 말한다.
까마귀는 훔치고, 여우는 속이고, 족제비는 선수 치고, 인간은 사기를 친다. 사기는 인간의 숙명이다. 어떤 시인은 “인간은 슬퍼하게 되어 있다” 하고 말했지만, 그렇지 않다. 인간은 사기 치게 되어 있다. (에드거 앨런 포, 『에드거 앨런 포 소설선집4』, 10쪽)
그러면서 사기라는 복합체를 만들어 내는 아홉 가지 재료를 들고있다. 섬세함, 흥미, 끈기, 정교함, 대담함, 태연함, 독창성, 건방짐, 소리 없는 웃음. 하나하나가 무릎을 탁 칠 정도로 사기꾼의 행태를 드러내는 속성이 아닐 수 없다.
섬세하지 못하고 무딘 사기꾼이 남을 속일 수는 없을 것이다.
“우리의 사기꾼은 흥미에 이끌려 움직인다.” 호구를 알아보고 호구의 돈 냄새에 끌린다. 그런 식으로 우리의 주머니를 노린다.
사기꾼은 끈덕지다. 호구를 한번 문 사기꾼은 절대로 놓지 않는다. “쉽사리 낙담하지도 않는다.”
사기꾼은 정교하다. 뛰어난 스토리텔러다. 짜임새 있게 계획을 세우고 줄거리를 엮는다. 언제나 빠져나갈 구멍을 만들어 놓는다.
사기꾼은 대담하다. 겁도 없이 최고 권력자의 측근 행세를 한다. 발각될까 두려워 겁을 먹지도 않는다.
사기꾼은 태연하다. “사기꾼에게는 신경이라는 게 아예 없다.” 침착하고 평온하고 절대 화를 내는 법도 없다.
사기꾼은 독창적이다. “사기꾼은 진부한 기술을 경멸한다.” 끊임없이 새로운 수법을 만들어낸다.
사기꾼은 건방지다. 사기꾼은 허풍쟁이에다 우리에게 비웃음을 날린다. “우리의 저녁을 해치우고, 포도주를 마시고, 돈을 빌리고, 놀려 먹고, 우리의 강아지를 걷어차고, 우리의 아내에게 입을 맞춘다.”
이제 포는 사기꾼의 마지막 모습을 이렇게 표현한다. “우리의 진정한 사기꾼은 씩 웃는 것으로 모든 일을 마무리한다.” 작업을 끝마친 사기꾼은 아무도 없는 곳에서 혼자서 소리없이 씩 웃으며 하루를 마무리한다.
《스팅》에서 폴 뉴먼은 사기의 최고의 경지를 이렇게 말한다. 사기를 당한 호구가 자기가 사기를 당했는지 알아차리지 못할 정도로 완벽하게 사기를 치는 것. 불안을 부추겨 돈을 강탈하는 보이스피싱 같은 일부 사기를 제외하고 대부분의 사기는 피해자의 숨겨진 욕망을 불러내고 부추긴다. 숨겨진 욕망에 기생한다는 점에서 사기술과 자본주의는 같은 원리에 기반하고 있다. 그래서 현실에서는 정상적인 비즈니스와 사기술 사이의 경계가 점점 흐릿해지는 것으로 드러난다.
애드거 앨런 포는 「사기술」에서 금융업자와 사기꾼 사이의 차이는 규모가 큰지 작은지 차이일 뿐이라고 말했다. “코끼리와 쥐, 혜성 꼬리와 돼지 꼬리의 관계”나 다름없다는 것이다. 크게 해 먹느냐 작게해 먹느냐의 차이뿐이다. 우리는 2008년 경제 위기에서 실제로 이런 일을 겪었다. 팔아서는 절대 안 되는 쓰레기 같은 부실 채권들을 CDS니 CDO하는 거창한 상품으로 묶어 팔았고, 결국 세계경제의 위기를 초래했다. 그런 사기를 친 뒤에도 누구하나 제대로 처벌받은 사람도 없다. 『롤링스톤』의 기자 매트 타이비는 그런 미국 사회를 “사기꾼들의 유토피아Griftopia”라고 표현했다.
우리가 사기를 당하고 있다는 것도 모른 채 일상을 살아가는 사이에 저 위의 누군가는 소리 없이 씩 웃으며 하루를 마무리하고 있을지도 모를 일이다.
♠ 참고 도서
데이비드 W. 모러, 고수미 옮김, 『빅콘 게임』, 마고북스, 2004년.
김웅, 『검사내전』, 부키, 2018년.
에드거 앨런 포, 『에드거 앨런 포 소설선집4 풍자편』, 코너스톤, 2015년.
매트 타이비, 『오 마이 갓!뎀 아메리카』, 서해문집, 2012년.
단테 알리기에리, 김운찬 옮김, 『신곡: 지옥』, 열린책들, 2007년.
[팝송으로 배우는 영어] 이터널스 2021 – eternals 2021 삽입곡 : The End Of The World – Skeeter Davis (세상의 끝- 스키터 데이비스,1962)[가사 한글자막]
— Lyrics —
Why does the sun go on shining
Why does the sea rush to shores
Don’t they know it’s the end of the world
‘Cause you don’t love me anymore
태양은 왜 저렇게 계속 빛나는 걸까.
파도는 해변으로 왜 밀려드는 걸까.
그대가 나를 더 이상 사랑하지 않기 때문에
이 세상은 끝나 버렸다는 것을 저들은 모르는 걸까.
Why do the birds go on singing
Why do the stars still above
Don’t they know it’s the end of the world
It ended when I lost your love.
왜 저 새들은 계속 노래 부르는 걸까.
왜 저 별들은 하늘에서 반짝 이는 걸까,
내가 그대의 사랑을 잃어 버렸을 때
이 세상은 끝나 버렸다는 것을 저들은 모르는 걸까.
I wake up in the morning and I wonder
Why everything’s the same as it was
I can’t understand,
no I can’t understand,
how life goes on the way it does
아침에 일어나 모든 일들이
예전과 다름이 없음에 놀랄 뿐이야.
이해할 수 없어.
정말 이해할 수 없어.
어떻게 똑같은 방법으로 삻이 계속 될 수 있는 걸까,
Why dose my heart go on beating
Why do these eyes of mine cry
Don’t they know it’s the end of the world
It ended when you said goodbye
내 가슴은 왜 계속 뛰는 걸까.
왜 나의 눈에서 눈물이 흘러 나올까
그대가 안녕이라고 말했을 때
이 세상은 끝나 버렸다는 것을 저들은 모르는 걸까
스키터 데이비스(1931년 12월 30일~2004년 9월 19일) 본명은 매리 프랜시스 페닉(Mary Frances Penick)으로 켄터키주의 드라이 릿지 농장에서 출생했다.스키터는 베티 잭 데이비스를 만나 데이비스 시스터즈를 결성 히트송 “I Forgot More Than You’ll Ever Know”를 발표 단기간에 성공했으나 불행하게도 동료이자 절친한 친구인 베티가 자동차사고로 사망했다. 스키터는 솔로로 재기하여 대성공을 하게된다. 1960년 한 해 동안 스키터는 RCA사에서 가장 성공한 컨트리 가수로 41개의 컨트리 챠트를 랭크시켰고 그중에서 13곡은 팝 챠트에 랭킹되였다. 그 중에서 우리 나라에서 크게 힛트했던 “The End Of The World”는 컨트리와 팝 챠트 2위까지 오르는 대 기록을 남겼다. 그녀가 부른 My Last Date With You, Am I That Easy to Forget, I Can’t Stay Mad At You, Gonna Get Along Without You Now, What Does it Take, 그리고 “I Can’t Believe That it’s All Over” 등의 히트곡을 남겼으며, 총 다섯 번의 그래미 상 후보에 올랐다.
더닝 크루거 효과(Dunning–Kruger effect)는 인지 편향의 하나로, 능력이 없는 사람이 잘못된 결정을 내려 잘못된 결론에 도달하지만, 능력이 없기 때문에 자신의 실수를 알아차리지 못하는 현상을 가리킨다. 그로 인해 능력이 없는 사람은 환영적 우월감으로 자신의 실력을 실제보다 높게 평균 이상으로 평가하는 반면, 능력이 있는 사람은 자신의 실력을 과소 평가하여 환영적 열등감을 가지게 된다. 크루거와 더닝은 “능력이 없는 사람의 착오는 자신에 대한 오해에서 기인한 반면, 능력이 있는 사람의 착오는 다른 사람에 대한 오해에서 기인한다”고 결론을 내린다.
“무지는 지식보다 더 확신을 가지게 한다.” (찰스 다윈)
“이 시대의 아픔 중 하나는 자신감이 있는 사람은 무지한데, 상상력과 이해력이 있는 사람은 의심하고 주저한다는 것이다.” (버트란드 러셀)
더닝 크루거 효과(Dunning-Kruger Effect)는 인지 편향(認知偏向, Cognitive bias )의 하나로, 능력이 없는 사람은 자신이 잘못된 결정을 내리고도 능력 부족으로 인해 자신의 실수를 알아차리지 못하는 현상을 말한다. ‘서울 안 가본 사람이 가본 사람을 이긴다’는 말과도 일맥상통한다. 위의 그래프에서 보듯이 능력이 없는 사람은 환영적 우월감에 사로잡혀 자신의 실력을 실제보다 턱없이 높게 평가하는 반면, 능력이 있는 사람은 오히려 자신의 실력을 과소 평가하여 환영적 열등감을 갖게 된다는 것이다.
더닝 크루거 효과는 1999년 코넬 대학교의 사회심리학 교수인 데이비드 더닝(David Dunning)과 당시 대학원생이던 저스틴 크루거(Justin Kruger)가 실험을 통해 밝혀냈다. 그들은 코넬 대학교 학부생을 대상으로 독해력, 자동차 운전, 체스, 테니스 등 여러 분야의 능력에 대해 가설을 세우고 이를 검증했다. 그들의 가설에 의하면 능력이 없는 사람은 다음과 같은 경향을 보인다.
자신의 능력을 과대평가한다.
다른 사람의 진정한 능력을 알아보지 못한다.
자신의 능력이 부족해서 생긴 곤경을 알아보지 못한다.
훈련을 통해 능력이 크게 향상된 후에야 이전의 능력 부족을 깨닫고 인정한다.
일찍이 소크라테스는 ‘무엇을 아는지를 알며 동시에 무엇을 알지 못하는지를 아는 것’, 특히 자신이 아는 것보다 더 많이 알고 있다고 생각하는 오만과 행동으로 옮기기에는 너무 적게 알고 있다고 생각하는 불안의 균형을 유지하는 것이 곧 지혜로운 사람의 태도라고 강조했다.
많은 사람의 의견, 특히 그 사람 본인의 의견에는 자신이 지혜로운 것 같다고 한다. 그런데 나에게는 그 사람이 지혜롭지 않다는 느낌이 왔다. 밖으로 걸어 나오면서, 내가 분명히 이 사람보다는 현명하다는 생각이 들었다. 아마도 우리 둘 모두 내놓고 자랑할 만한 지식은 거의 없는 것 같다. 조그만 차이가 있다면, 그 사람은 자신이 조금은 안다고 생각하는 데 비해 나는 나의 무지를 아주 잘 파악하고 있다는 점이다. 어쨌든 내가 모르는 내용들을 알고 있다고 생각하지 않는다는 점에서 그 사람보다 내가 현명하다고 할 수 있을 것 같다. (소크라테스)
우리의 인지 편향 총정리
2015년 9월 24일 | By: rukahs | 과학 | 댓글이 없습니다
당신은 매일매일 수천 가지 결정을 내립니다. 연구에 따르면 무엇을 먹을지 정하는 사소한 결정부터, 직장에서 내리는 중대한 결정에 이르기까지, 수많은 인지적 편향이 최선의 결정을 내리는 것을 방해합니다. <비즈니스 인사이더>가 정리한 20가지 인지 편향을 소개합니다.
기준점 편향 (anchoring bias)
사람들은 처음 접하는 정보에 지나치게 좌우되는 경향이 있습니다. 연봉 협상을 할 때, 첫 번째로 제안하는 금액에 따라 각자의 머리 속에는 그 제안 금액의 범위 내에서 사고가 이루어지게 됩니다.
가용 휴리스틱 (availability heuristic)
사람들은 그들이 미리 알고 있는 정보의 중요성을 과대평가하는 경향이 있습니다. 가령, 흡연을 하는 사람이 하루에 담배 세 갑씩 피면서 100세까지 산 사람을 안다고 말하며 담배는 몸에 해롭지 않다고 주장하는 경우가 있습니다.
편승 효과 (bandwagon effect)
어떤 사람이 특정한 신념을 받아들일 가능성은 그 신념을 따르는 사람들의 수가 증가할수록 높아집니다. 이것은 집단 사고의 강력한 형태이며, 회의들이 생산적이지 못한 원인 가운데 하나입니다.
맹점 오류 (blind-spot bias)
스스로의 인지적 오류를 깨닫지 못하는 것은 그 자체로 오류입니다. 사람들은 자기 자신보다 타인의 인지적, 동기적 오류들을 쉽게 눈치채는 경향이 있습니다.
선택 지원 편향 (choice-supportive bias)
사람이 어떤 의사 결정을 내리는 순간, 그 사람은 그 결정을 긍정적으로 바라보게 됩니다. 그래서 실제로 그 결정에 결함이 있더라도 한 번 내린 결정을 밀고 나가는 경우가 많습니다.
클러스터 착각 (clustering illusion)
무작위로 일어나는 사건에 대해 어떤 패턴을 발견하는 경향성입니다. 이는 사람들이 도박을 하거나 복권 번호를 고를 때 범하기 쉬운 오류입니다.
확증 편향 (confirmation bias)
사람들은 자기가 기존에 가지고 있던 생각을 강화시켜주는 정보만 듣는 경향이 있습니다. 이는 우리가 다양한 주제들에 대해 심도 있는 대화를 하기 힘든 이유이기도 합니다.
보수주의 편향 (conservatism bias)
사람들은 기존의 증거들을 새로운 증거나 갓 밝혀진 정보보다 선호합니다. 지구가 둥글다는 주장을 사람들이 받아들이는 데 시간이 오래 걸린 것도 기존에 지구가 평평하다는 믿음을 계속 지키는 것이 더 편했기 때문입니다.
정보 오류 (information bias)
정보를 추가로 얻을 필요가 없는데도 정보를 더 얻으려고 노력하는 경향을 뜻합니다. 많은 정보가 늘 좋은 것은 아닙니다. 적은 정보로도 오히려 더 정확한 예측을 할 수 있습니다.
타조 효과 (ostrich effect)
타조가 땅에 머리를 파묻는 것과 같이, 위험하거나 부정적인 정보를 무시하는 오류입니다. 연구에 따르면, 투자자들은 시장이 안 좋을 때, 자신이 보유한 주식의 가격을 덜 확인한다고 합니다.
결과 오류 (outcome bias)
결정을 그 결정이 이루어진 원인보다는 결과에 비추어 평가하는 것입니다. 어떤 사람이 라스베가스에서 돈을 많이 땄다고 해서, 돈을 도박에 투자한 것이 잘한 결정은 아닐 것입니다.
과도한 자신감 (overconfidence)
어떤 이들은 자기 자신의 능력에 대한 자신감이 지나쳐서 이로 인해 일상 생활에서 더 위험한 결정을 하게 됩니다. 각 분야의 전문가들이 이 오류에 자주 빠지곤 하는데, 이는 그들이 자신의 결정이 맞다고 더 확신하는 경향이 있기 때문입니다.
위약 효과 (placebo effect)
단순히 어떤 결정이 자기 자신에게 효과가 있을 것이라고 생각하는 것만으로도 실제 그 믿음과 유사한 효과가 나타나는 것입니다. 의학에서, 가짜 약을 진짜 약이라고 속이고 환자에게 줄 경우, 진짜 약을 먹은 사람과 마찬가지 반응이 일어나는 것을 확인할 수 있습니다.
친혁신 편향 (pro-innovation bias)
혁신을 지지하는 사람이 혁신의 중요성을 과대평가하고, 반대로 단점은 과소평가하는 경향입니다. 실리콘 밸리에서 흔히 볼 수 있는 광경입니다.
최신 편향 (recency)
과거 자료보다 최신 정보를 무조건 높게 평가하는 경향입니다. 투자자들은 시장이 오늘과 같을 것이라 생각하기 때문에 현명하지 못한 결정을 내리곤 합니다.
특징 효과 (salience)
어떤 사람이나 개념을 접할 때, 가장 생각하기 쉬운 특징에만 집중하는 것입니다. 가령, 우리가 죽음에 대해서 생각을 할 때, 보다 가능성이 높은 자동차 사고 대신 사자에게 물려서 죽는 극적인 장면을 생각하는 것입니다.
선택적 지각 (selective perception)
사람들의 기대는 세상을 바라보는 방식에 영향을 줍니다. 같은 미식 축구 경기를 보여줄 경우, 사람들은 자신이 응원하는 팀보다 상대팀이 더 많은 반칙을 저지른 것으로 생각을 합니다.
고정관념 (stereotyping)
특정 집단이나 사람에 대한 실질적인 정보 없이 그 사람이 어떠한 특징들을 가지고 있을 것이라 기대하는 경향입니다. 이는 우리가 낯선 사람을 친구인지 적인지 쉽게 구분하는 데 도움을 주기도 하지만, 사람들은 이를 남용하는 경우가 많습니다.
생존자 편향 (survivorship bias)
특정한 상황에서 무사히 살아남은 사람에만 집중함으로써, 그 상황을 잘못 판단하게 하는 경향입니다. 가령 우리 눈에는 회사를 경영하면서 실패한 사람보다는 성공한 사람이 주로 뜨이기 때문에, 우리는 회사를 경영하는 것이 쉬운 일이라고 착각할 수 있습니다.
제로 리스크 편향 (zero-risk bias)
사회학자들은 사람들이 확실성을 매우 좋아한다는 것을 알게 되었습니다. 그것이 비생산적이라 할지라도 말입니다. 여기서 리스크를 없앤다는 것은, 피해가 발생할 가능성이 전혀 없게끔 한다는 말입니다.
ChatGPT가 왜 최강 코드 툴인지 아십니까? 직접 경험해보니 말이 안나오네요. 프로그래밍 덜 공부하길 잘했다는 생각이 들어요! Chatgpt로 코딩 공부도 직접할 수 있을 것 같아요. 코드 효율적으로 짜기, 오류찾기, sentiment analysis 코드 생성, 머신러닝, 통계, 그리고 설치까지 설명도 다 해주더라고요.
ChatGPT로 코딩하기
이 글에서는 다음과 같은 방법들을 시도해봤습니다.
1. ChatGPT야 코드좀 간단하게 다시 짜줘
2. ChatGPT야 코드 오류좀 찾아줘
3. ChatGPT야 R이랑 파이썬으로 텍스트 sentiment 분석 코드좀 짜줘
4. ChatGPT야 R이랑 파이썬으로 머신러닝 코드좀 짜줘
5. ChatGPT야 R이랑 파이썬에서 어떻게 설치하니
6. ChatGPT야 영어 과외 선생님도 해준다고?
7. Chatgpt야 에러코드가 이건데 무슨 의미야?
8. Chatgpt야 내 코드에러를 직접 수정해줘.
9. chatgpt야 에러들 다른 해결책은 없을까?
10. R 업데이트는 어떻게 하니 Chatgpt?
11. 에러코드 붙여넣고 솔루션까지 한번에 알려줘 chatgpt!!
12. Chatgpt로 통계하기
설명하기 앞서 ChatGPT의 설치 방법이 궁금하신 분은 하단 글을 봐주세요! (실은 설치가 아니고 사용법이죠 ㅎㅎ). 새 창으로 열리니 눌러두시고 나중에 봐보세요!
실제로 파이썬과 R에서 어떻게 chatgpt를 불러와 사용할 수 있는지는 제일 하단에 설명두었습니다.
그리고 코딩 말고도 ChatGPT 사용법이 궁금하신 분은 하단 글을 보시면 도움이 될거에요.
1. ChatGPT야 코드좀 간단하게 다시 짜줘
먼저 저의 코드를 붙여넣고
“Is there any way to simplify the code of R below?” 라고 질문을 했습니다. 코드를 간단하게 정리할 수 있는 방법이 있나 물어본 것이죠.
참고로 저의 코드는 아래와 같이 생겼었습니다.
그러자 정말 너무 멋지게 답을 해줍니다. 공부에 매우 도움이 되겠죠?
다음에는 그래서 직접 코드를 심플하게 만들어달라고 요청했습니다
“Could you make below R code simple?”
그랬더니!! 마법같이 simplified version, 즉 이쁘게 짜인 코드를 제공해줍니다. 이거 보면서 비교 공부해야겠어요..
이어서 설명까지 해줍니다.
2. ChatGPT야 코드 오류좀 찾아줘
이번에는 일부러 틀린 코드를 입력해서 오류를 찾을 수 있는지 알아봤습니다.
Could you find an error in the below R code?
오타잡기
일단 오타 수준의 오류를 만들어봤는데 오타를 잡아주네요!
이게 은근히 오타로 모든게 틀려지는 것 아시죠? 하 너무 좋네요!!
비록 데이터셋을 직접 불러와 오류를 점검해주지는 않지만, 유용할 것 같습니다. 파이썬이나 R에 직접 설치하는 경우는 그것도 가능할 수 있겠네요. 나중에 해봐야겠습니다.
정의하지 않은 변수 잡기
이번에는 정의 하지 않은 변수를 일부로 심어봤는데 이것도 잡아주네요! 참 신박한 친구에요
3. ChatGPT야 R이랑 파이썬으로 텍스트 sentiment 분석 코드좀 짜줘
“ChatGPT야 파이썬으로 sentiment analyis 코드 짜줘”
심심(?)해서 추가로 파이썬으로 텍스트 감성분석하는 코드를 짜달라고 요청해보았습니다.
덜덜덜! 프로그래밍 공부 안하길 잘했네요… ㅠㅠ 물론 기본적인 이해가 있어야 적용이 가능하겠지만, 10년 뒤 과연 여전히 컴공과가 가장 인기 학과일지 궁금해지는 시점입니다.
역시 설명도 해줍니다.
“ChatGPT야 R로 sentiment analyis 코드 짜줘”
이번에는 ChatGPT에게 R로도 text sentiment analysis 코드를 짜달라고 부탁해봤습니다.
This code first installs the sentimentr library if it is not already installed, and then loads it. It then defines a list of texts to analyze and uses the sentiment function from the sentimentr library to analyze the sentiment of each text. The sentiment function returns a numeric vector with values between -1 and 1, where -1 indicates very negative sentiment, 0 indicates neutral sentiment, and 1 indicates very positive sentiment.
I hope this helps! Let me know if you have any questions.
이번에도 멋지게 설명을 해줍니다…
여러분이 이제 하는 코드에 적용시켜볼 차례입니다.
4. ChatGPT야 R이랑 파이썬으로 머신러닝 코드좀 짜줘
ChatGPT야 머신러닝 파이썬 코드좀 짜줘.
실은 머신러닝이 무궁무진하기에 아무거나 짜달라고 부탁을 해봤습니다.
Could you generate code for machine learning in python?
이번에는 scikit-learn library를 활용해서 코드를 짜주는군요. 역시 설명도 나옵니다.
This code first installs the scikit-earn library if it is not already installed, and then imports it. It then loads the iris dataset from the scikit-learn library and splits it into training and test sets using the train_test_split function.
Next, the code creates a k-nearest neighbors (KNN) classifier using the KNeighborsClassifier class from the scikit-learn library. It then trains the classifier on the training data using the fit method and evaluates the classifier
5. ChatGPT야 R이랑 Python에서 어떻게 설치하니
Python에 Chatgpt 설치하기, 라이브러리 불러오기.
이번에는 어떻게 파이썬에 Chatgpt를 설치할 수 있는지 물어봤습니다.
How to install chatgpt in python
역시 답변을 해주는군요
chatgpt is a Python library for generating chatbot responses using the GPT-3 language model from OpenAI. To install chatgpt, you will need to have a valid OpenAI API key and the openai library installed.
——————————————————————-
Here is an example of how to install chatgpt in Python:
# Install the openai library if it is not already installed
!pip install openai
# Set your OpenAI API key as an environment variable
import os
os.environ[“OPENAI_SECRET_KEY”] = “<your_api_key>”
# Install the chatgpt library
!pip install chatgpt
————————————————————————-
Once the openai library is installed and your API key is set as an environment variable, you can install chatgpt using pip.
I hope this helps! Let me know if you have any questions.
R에 Chatgpt 설치하기.
R에도 설치가 가능할까요?
R에 Chatgpt 설치하기.
한번 가능한지 물어봤습니다.
How to install chatgpt in R programming
파이썬 라이브러리라고 답변이 나타나는군요…! 근데 설치가 가능하다고 하긴 합니다. 제가 코딩은 잘 아는 편은 아니라서 붙여넣을게요. 도움되실 분이 있을 것 같아서요!
chatgpt is a Python library for generating chatbot responses using the GPT-3 language model from OpenAI. It is not available for use in R.
If you would like to use the GPT-3 language model from OpenAI in an R environment, you can use the openai package. To install the openai package in R, you will need to have a valid OpenAI API key.
Here is an example of how to install and use the openai package in R:
————————————————————————-
# Install the openai package if it is not already installed
install.packages(“openai”)
# Load the openai package
library(openai)
# Set your OpenAI API key
Sys.setenv(openai_api_key = “<your_api_key>”)
# Use the openai_model function to get a model by name
model <- openai_model(“text-davinci-002”)
# Use the openai_completion function to generate responses
response <- openai_completion(model, prompt = “What is the weather like today?”, max_tokens = 100)
print(response$text)
————————————————————————-
This code installs the openai package if it is not already installed, loads it, and sets your API key as an environment variable. It then uses the openai_model function to get a reference to the GPT-3 model with the name “text-davinci-002”, and the openai_completion function to generate responses to a given prompt.
I hope this helps! Let me know if you have any questions.
이것 말고도 ChatGPT의 활용 방법이 무궁무진하다는 것 아시나요? 이제는 코딩을 덜 공부해도 되는 세상이 오고 있는 것 같습니다.
혹시 도움이 되셨다면, 지식의 공유를 위해 좋은 활용법을 발견하면 댓글로 적어주실 수 있으신가요?! 추가로 글을 더 발전시키거나 새로운 글로 또 소개하겠습니다!
6. ChatGPT야 영어 과외 선생님도 해준다고?
영어 고민이 있으신가요? 인공지능이 도와드려요! 영어 글을 다 교정해주고, 왜 그렇게 교정했는지 이유도 알려줍니다!!
7. Chatgpt야 에러코드가 이건데 무슨 의미야?
chat gpt에 에러코드 붙여넣기 1
이번엔 제가 코딩을 하다 에러를 발견해서, 에러 코드를 붙여넣고 이유를 물어봤어요. 답해주네요!
8. Chatgpt야 내 코드에러를 직접 수정해줘.
근데 해결이 안돼서, 제 코드를 직접 붙여넣고, 에러를 찾아달라고 해봤어요. 그랬더니! 코드도 새로 짜주네요!
9. chatgpt야 에러들 다른 해결책은 없을까?
다른 해결책도 알려줘 Chat gpt! 그래도 해결이 안돼서 다른 솔루션이 없나 물어봤어요.
다섯가지 제안을 해줬어요. 그 중에 번쩍 눈에 띈 업데이트 해보라는 … 조언! 지난 번에도 한참 2어시간 고생하다가 업데이트 문제였던 경험이 있어서… 야 이걸 알려주네요.
10. R 업데이트는 어떻게 하니 Chatgpt?
업데이트 코드가 기억이 안나서 R 업데이트 하는 방법을 알려달라고 했어요.
R 코드로 하는 방법과, 홈페이지 사이트까지 딱 알려주네요! 감사해라..
그리고 기적적으로 업데이트하니 에러가 해결됐어요 ㅎㅎ
11. 에러코드 붙여넣고 솔루션까지 한번에 알려줘 chatgpt!!
또 에러가 생겨서 에러코드를 붙여넣어봤어요. 이번엔 아까의 경험을 살려 한번에 여러 솔루션을 달라고 했습니다.
“Could you generate several solutions for the below error code in R? “
There are several potential solutions for the error message “object ‘fit’ not found” in R when using the “glm()” function:
1. Check the spelling and case of the variables and function arguments: Make sure that you have spelled the variables and function arguments correctly and that you have used the correct case. For example, the “glm()” function expects the “family” argument to be lowercase, not uppercase.
2. Check the dimensions of the variables: Make sure that the variables you are using as predictors and the response variable have the same number of rows. If the dimensions of the variables do not match, it can cause the “object ‘fit’ not found” error.
3. Check for missing values: Make sure that there are no missing values in the variables you are using as predictors or the response variable. The “glm()” function cannot handle missing values and will generate the “object ‘fit’ not found” error if it encounters missing values.
4. Check for multicollinearity: Make sure that there is no multicollinearity among the predictor variables. Multicollinearity can occur when two or more predictor variables are highly correlated, which can cause the “glm()” function to fail.
5. Check for convergence: If the “glm()” function generates a warning message stating that the algorithm did not converge, it means that the optimization algorithm used by the “glm()” function was unable to find the optimal solution. This can be caused by a variety of factors, including multicollinearity, outliers, or a lack of enough observations. To fix this issue, you can try using a different optimization algorithm (such as the BFGS algorithm) or try transforming the data to make it more suitable for the “glm()” function.
I hope these suggestions are helpful in resolving the “object ‘fit’ not found” error when using the “glm()” function in R.
위에 답해준거 보세요… 오 3번 솔루션 “결측치”가 문제의 원인이였습니다.
12. Chatgpt로 통계하기
실은 저는 위의 코드들이 통계에 가까운 것 같아요! 이번에는 히스토그램을 그려보고 싶어서 코드를 알려달라 했어요! 그리고 기초 기술통계를 알려줄 수 있는 코드도 짜달라고 했죠. 이렇게 설명해주네요!