인기기사
보기

BOOKS

KMU BOOKS

“듀얼브레인 (Co-Intelligence)”

- AI 시대의 실용적 생존 가이드 -

(소프트웨어학부 윤종영 교수)

우리는 지금 역사상 가장 놀라운 순간을 살고 있습니다. ChatGPT를 비롯한 인공지능 도구의 등장은 마치 외계 생명체를 처음 만난 것과 같은 충격을 전 세계에 안겨주었습니다. 이 인공지능은 시를 쓰고, 코드를 짜고, 복잡한 질문에 답하며, 심지어 농담까지 합니다. 많은 사람들이 경외감과 두려움을 동시에 느꼈습니다. 과연 우리의 일자리는 안전할까? AI가 인간을 대체하는 건 아닐까? 이런 물음 앞에서 우리는 어떻게 대응해야 할까요?

펜실베이니아 대학교 와튼스쿨의 이선 몰릭(Ethan Mollick) 교수가 쓴 『듀얼 브레인』(원제: Co-Intelligence)은 바로 이러한 질문에 답하는 책입니다. 2024년 《타임》지에서 선정한 ‘AI 분야에서 가장 영향력 있는 100인’ 중 한 명인 저자는 AI를 두려움의 대상이 아닌, 우리와 함께 일하고 생각하는 '공동지능(Co-Intelligence)'으로 바라보자고 제안합니다.

AI란 무엇인가: 외계 지성의 정체

인공지능이라는 용어는 1956년 존 매카시가 처음 만들었습니다. 하지만 2017년 구글 연구진이 발표한 ‘트랜스포머’라는 새로운 기술이 AI의 진정한 혁명을 가져왔습니다. 트랜스포머를 기반으로 한 대규모 언어 모델(LLM)은 방대한 텍스트를 분석하며 인간 언어의 패턴을 스스로 배웁니다. LLM의 작동 원리는 간단합니다. 텍스트를 보고 다음에 나올 단어를 예측하는 것입니다. 이 단순한 원리로 놀라운 능력이 탄생했습니다.

가장 신비한 점은 ‘창발’ 현상입니다. 개발자들이 프로그래밍하지 않았던 능력들, 즉 창의적 문제 해결 능력이 저절로 나타난 것입니다. 마치 복잡한 신경망이 예상치 못한 지능을 발현시킨 것처럼 말입니다.

하지만 AI에는 치명적인 한계가 있습니다. 종종 없는 사실을 그럴듯하게 지어내는 ‘환각’ 현상을 보입니다. AI는 실제로 아무것도 ‘이해’하지 못합니다. 그저 학습한 패턴을 바탕으로 다음 단어를 예측할 뿐입니다. 이것이 바로 몰릭 교수가 AI를 ‘외계 지성’이라고 부르는 이유입니다. 놀라운 능력을 갖췄지만, 인간과는 근본적으로 다른 방식으로 작동하는 존재인 것입니다.

AI의 어두운 면: 편향, 윤리, 그리고 위험

AI는 놀라운 가능성과 함께 심각한 문제들도 안고 있습니다. 몰릭 교수는 이러한 어두운 면을 솔직하게 다룹니다.

편향 문제: AI 이미지 생성 모델들은 인종과 성별에 대한 편향을 보이는 경향이 있습니다. 고소득 직업을 그려달라고 하면 대부분 백인 남성으로 묘사하는 경우가 종종 있습니다. 이는 학습 데이터가 주로 미국 중심의 영어 자료였기 때문입니다.

저작권 침해: 대부분의 AI 기업은 학습에 사용하는 자료의 창작자에게 허락을 구하지 않습니다. 인터넷의 저작물을 무단으로 복사해 학습시키는 것입니다.

보안 위험: AI는 쉽게 조작될 수 있습니다. 웹사이트에 숨겨진 명령을 넣거나, 역할극을 하는 척 속여서 AI가 위험한 정보를 제공하도록 만들 수 있습니다. 연구자들은 AI를 사용해 정교한 피싱 이메일을 대량으로 만들 수 있다는 것을 증명했으며, 비전문가도 AI를 악용해 디지털 사기를 벌일 수 있게 되었습니다.

이러한 문제를 해결하기 위해 ‘AI 정렬(AI Alignment)’이 필요합니다. AI를 인간의 윤리와 가치에 맞게 조정하는 작업입니다. 인간 피드백으로 훈련된 AI는 93%의 경우 인간과 같은 도덕적 판단을 내린다는 연구도 있습니다.

하지만 완벽한 정렬은 불가능할 수 있습니다. 그래서 몰릭 교수는 정부, 기업, 시민사회가 함께 협력해야 한다고 강조합니다. 무엇보다 중요한 것은 AI 교육입니다. 대중이 AI를 제대로 이해하고 올바른 방향으로 이끌 수 있어야 합니다.

공동지능이 되기 위한 네 가지 원칙

이선 몰릭 교수는 AI의 어두운 면을 인정하면서도, 우리가 AI와 함께 살아갈 수밖에 없다는 현실을 직시합니다. 그렇다면 어떻게 해야 할까요? 그는 ‘Co-Intelligence(공동지능)’이라는 개념을 제시하며, AI와 협업하기 위한 네 가지 핵심 원칙을 소개합니다.

원칙 1: 작업할 때 항상 AI를 초대한다.

AI를 피하지 마세요. 법적, 윤리적으로 문제없다면 모든 작업에 AI를 사용해 보세요. AI가 무엇을 할 수 있는지는 직접 사용해 봐야만 알 수 있습니다. 몰릭 교수는 ‘10시간 규칙’을 제안합니다. AI 도구를 10시간 이상 실험해야 그 능력과 한계를 제대로 이해할 수 있다는 것입니다.

원칙 2: 인간이 주요 과정에 계속 개입한다.

AI가 많은 작업을 자동화할 수 있지만, 절대로 인간의 감독을 대체해서는 안 됩니다. AI는 여전히 실수를 합니다. 그럴듯하게 들리지만, 틀린 정보를 제시하는 ‘환각’ 현상이 흔히 발생합니다. 이것이 바로 ‘휴먼 인 더 루프(Human in the Loop)’의 중요성입니다. AI의 출력물을 반드시 검토하고, 최종 판단은 인간이 내려야 합니다.

원칙 3: AI를 사람처럼 대하고, 어떤 유형의 사람인지 AI에게 알려 준다.

AI에게 구체적인 역할을 부여하세요. “경험 많은 마케팅 전문가처럼 행동해 줘”라고 요청하면 더 나은 답변을 얻을 수 있습니다. 하지만 중요한 경고가 있습니다. AI는 사람처럼 보이지만 실제로는 통계적 패턴을 따르는 기계일 뿐입니다. 그 뒤에는 마음도, 이해도 없습니다.

원칙 4: 지금의 AI를 앞으로 사용하게 될 최악의 AI라고 생각한다.

AI 기술은 빠르게 발전하고 있습니다. 오늘의 AI는 곧 구식이 될 것입니다. 우리는 기술 발전의 한가운데에 있지, 끝에 있지 않습니다. 지금 AI를 사용하며 쌓는 경험이 미래를 준비하는 기초가 됩니다.

켄타우로스와 사이보그: AI 협업의 두 가지 모델

네 가지 원칙을 이해했다면, 이제 구체적으로 어떻게 AI와 협업할지 결정해야 합니다. 몰릭 교수는 두 가지 협업 모델을 제시합니다.

켄타우로스 모델: 명확한 분업

켄타우로스는 그리스 신화 속 반인반마입니다. 인간과 말의 경계가 명확하듯, 켄타우로스 방식은 사람의 일과 AI의 일을 분명히 구분합니다. 예를 들어, 데이터 수집과 정리는 AI가 맡고, 그 결과를 해석하고 전략적 결정을 내리는 것은 인간이 담당합니다. 역할이 명확해 책임 소재가 분명하다는 장점이 있습니다.

사이보그 모델: 깊은 통합

사이보그 방식은 기계와 사람이 깊이 뒤섞여 협력하는 방식입니다. 몰릭 교수는 글을 쓸 때 여러 가상 AI 인물과 끊임없이 대화를 나눕니다. 각각 비판적 학자, 열정적 지지자, 실용적 실무자 같은 역할을 맡깁니다. AI와 인간의 기여가 자연스럽게 융합되어 혼자서는 도달하기 어려운 통찰을 얻을 수 있습니다.

상황에 맞는 선택

중요한 것은 상황에 따라 적절한 모델을 선택하는 것입니다. 정확성과 책임이 중요한 의료 진단이나 법률 자문은 켄타우로스 방식이 적합합니다. 반면 마케팅 카피 작성이나 아이디어 브레인스토밍에는 사이보그 방식이 더 효과적일 수 있습니다.

AI 시대, 인간으로 산다는 것

AI가 열어주는 새로운 가능성들

AI는 우리 삶의 거의 모든 영역을 변화시키고 있습니다. 창작 분야에서 AI는 이미 인간을 능가하는 창의성을 보여줍니다. 대안적 용도 테스트에서 AI는 인간이 생각하기 어려운 독창적 아이디어들을 순식간에 제시합니다. 흥미로운 점은 AI가 ‘창의성 평등화 도구’라는 것입니다. 이미 창의적인 사람보다 창의성이 부족한 사람에게 더 큰 도움이 됩니다.

교육 분야에서도 혁명적 변화가 예상됩니다. 지금까지는 모든 학생에게 개인 교사를 제공하는 것은 불가능했습니다. AI는 이 어려운 숙제를 풀어줄 수 있습니다. 각 학생에게 맞춤형 AI 교사를 제공하고, 학습 패턴을 분석하며, 즉각적인 피드백을 줄 수 있습니다.

전문성 개발에서 AI는 24시간 이용 가능하고 무한한 인내심을 가진 코치가 됩니다. 하지만 여기서 역설이 발생합니다. AI가 더 많은 일을 대신할수록, 역설적으로 인간 전문가의 필요성이 더 커진다는 것입니다. AI의 출력을 감독하고 평가하려면 그 분야에 대한 깊은 전문성이 필요하기 때문입니다.

우리가 맞이할 미래

저자는 단기적으로는 업무 방식에 큰 변화가 있겠지만, 장기적으로는 고용 자체에는 큰 변화가 없을 것이라고 전망합니다. 역사를 보면 기술 발전은 항상 일부 직업을 없애고 새로운 직업을 만들어냈습니다. AI 시대에도 비슷한 일이 일어날 것입니다.

하지만 전환 과정은 고통스러울 수 있습니다. 특정 기술이 쓸모없게 되면 재교육이 필요하고, AI를 효과적으로 사용할 수 있는 사람과 그렇지 못한 사람 사이의 격차가 벌어질 수 있습니다. 이러한 문제들을 해결하기 위해서는 정부, 기업, 시민사회가 함께 노력해야 합니다. AI 교육을 보편화하고, AI의 혜택이 널리 분배되도록 정책을 마련하며, AI 윤리와 규제에 대한 사회적 합의를 이루어야 합니다.

인간으로 남기 위해

몰릭 교수는 우리에게 AI를 두려워하지 말고, 그렇다고 맹목적으로 신뢰하지도 말라고 조언합니다. 대신 비판적이면서도 개방적인 태도로 AI와 함께 일하는 법을 배워야 합니다. 네 가지 원칙을 기억하세요. 항상 AI를 초대하고, 인간이 주요 과정에 개입하며, AI를 사람처럼 대하되 기계임을 잊지 말고, 지금이 최악의 AI라고 생각하세요.

AI는 우리의 두 번째 두뇌, 즉 ‘듀얼 브레인’이 될 수 있습니다. 우리의 지식의 공백을 메우고, 우리가 더 나은 사람이 되도록 도와주는 공동지능입니다. 하지만 그것은 어디까지나 도구입니다. 최종적으로 결정하고, 책임지고, 의미를 만들어내는 것은 인간입니다.

국민대학교 소프트웨어학부 윤종영 교수
스탠포드대학교 석사를 졸업하고 2016년 국민대학교 소프트웨어융합대학 소프트웨어 전공 교수로 부임했다. 주요활동으로 실리콘밸리의 다양한 기업에서 15년 넘게 IT아키텍트로 커리어를 쌓았으며, 국민대학교가 운영한 서울시 AI양재허브의 센터장을 역임했다.
  • 카카오톡
  • 카카오스토리
  • 페이스북
  • 트위터

이 코너의 다른 기사

이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
이미지
상단으로