인공지능(AI)은 단순한 기술 발전을 넘어, 우리 삶의 모든 영역에 심대한 영향을 미치며 인류의 정체성까지 바꿔놓을 거대한 변화의 물결입니다. 알릴레오 북스의 '박태웅의 AI 강의 2025'는 이러한 AI 혁명의 본질과 현황, 그리고 우리가 직면할 위협과 나아가야 할 길을 심도 있게 탐구합니다. IT 현자이자 AI 커뮤니케이터인 박태웅 의장은 복잡한 AI의 세계를 대중의 눈높이에서 이해시키며, 새로운 기술이 언제나 인류가 그 실체를 온전히 깨닫기 전에 세상의 방향을 바꿔 놓았음을 강조합니다. 이번 글에서는 박태웅 의장의 강연 내용을 바탕으로 AI가 가져올 변화의 양면성, 즉 희망과 절망의 가능성을 조명하고, 우리가 나아가야 할 방향에 대해 이야기하고자 합니다.

AI, 일자리를 위협하는가? 역사에서 배우는 교훈
AI에 대한 대중의 가장 큰 공포 중 하나는 바로 '내 일자리가 사라지는가'에 대한 생계 위협입니다. 이는 새로운 기술이 등장할 때마다 반복되어 온 역사적 두려움이며, 300년 전 러다이트 운동과 산업혁명기에도 기계가 일자리를 빼앗을 것이라는 공포가 존재했습니다. 산업혁명 이후 모든 기술 발전은 인력 감축과 비용 절감을 지향해 왔습니다. 예를 들어, 농업 분야만 보더라도 500년 전에는 인구의 70% 이상이 종사했지만, 지금은 5% 미만의 인력으로도 식량이 남아도는 상황이 되었습니다. 이는 농기구 도입과 기술 발전 덕분입니다.
그러나 역사는 또한 기존 일자리가 사라진 것보다 더 많은 새로운 일자리가 창출되어 인구가 몇 배로 증가했음에도 인류가 계속 살아왔음을 보여줍니다. AI 역시 예외는 아닐 것입니다. AI는 생산성을 어마어마하게 향상시킵니다. 박태웅 의장은 AI를 가장 잘 활용하는 한 IT 회사의 사례를 소개합니다. 7명 남짓한 직원이 연 매출 수십억 원을 달성하는데, 이는 한 명의 개발자가 30명의 몫을 해낼 수 있게 되었기 때문입니다. AI는 주간 회의 자료 취합 같은 반복적인 업무를 자동화하여 시간을 압축하고, 컨설팅이나 법률 분야에서 데이터를 분석하고 제안을 만드는 작업을 인간보다 만 배 빠르게 수행합니다. 이는 조직을 '납작하게' 만들고 '모든 사람이 팀장'이 되게 하여, 중간 관리층이나 신입사원들이 할 일이 없어지는 현상으로 이어질 수 있습니다.
여기에 '좋은 일이 나쁜 일이 되는 경우'라는 역설이 숨어 있습니다. AI가 전반적인 생산성을 높여 사회에 부를 가져다주지만, 신입들의 일자리가 사라지면 대규모 청년 실업이라는 비극을 초래할 수 있습니다. 이는 부분의 최적화가 전체의 비극을 부르는 대표적인 예가 됩니다. 산업혁명 시대의 비극은 기술 발전이 가져오는 변화에 의식과 제도가 뒷받침되지 못했기 때문에 발생했습니다.

당시 런던에서는 10살 남짓한 어린이들이 장시간 노동에 시달렸고, 평균 수명이 20살까지 떨어지는 참혹한 현실이었습니다. 이러한 참극을 되풀이하지 않기 위해 우리는 AI가 가져올 생산성 향상에 걸맞은 사회 제도와 의식의 변화를 이루어야 합니다. 주 6일 근무에서 주 5일 근무로 전환했을 때 놀랍게도 생산성이 5% 증가했던 것처럼, 이는 자원의 재분배를 통해 사회 전체의 효율성을 높이는 계기가 될 수 있습니다. AI가 창출하는 부를 사회적 안전판 구축과 청년 취업 지원에 활용해야 한다는 목소리가 나오는 이유도 여기에 있습니다. 신안의 태양광 연금처럼 AI로부터 얻는 부를 'AI 연금'이나 '기본 소득', '기본 주택'과 같은 사회적 안전망을 만드는 데 써야 한다는 논의로 이어지는 것입니다.
인공지능의 본질: 지능인가 도구인가?
그렇다면 인공지능은 과연 어떤 존재일까요? 초창기 인공지능 연구는 고양이 식별처럼 특정 대상을 분류하기 위해 사람이 특징을 일일이 정리해 주는 방식에서 시작했습니다. 하지만 예외가 너무 많고, 인간이 직관적으로 아는 '잠재된 패턴'을 말로 설명하기 어렵다는 한계에 부딪혔습니다. 돌파구는 인간 뇌의 뉴런 작동 방식에서 나왔습니다. 앨런 튜링은 70여 년 전 이미 충분히 빠른 연산 장치(CPU)와 대용량 저장 장치만 있으면 인간의 지능과 같은 방식으로 작동하는 기계를 만들 수 있다고 예측했습니다.
AI는 인간처럼 '패턴 인식'을 통해 학습합니다. 수많은 고양이 사진을 보고 어떤 특징이 고양이와 밀접한 관계가 있는지 높은 점수를 부여하는 식으로 학습하는 것입니다. 하지만 인간은 소수의 데이터만으로도 추상화하고 인식하는 능력이 뛰어나, AI처럼 수많은 전기를 소비하며 비효율적으로 계산할 필요가 없습니다.

챗GPT의 등장은 AI 혁명의 시작을 알리는 충격적인 사건이었습니다. 오픈AI의 '규모의 법칙' 논문은 컴퓨팅 파워, 학습 데이터, 매개변수를 늘릴수록 AI 성능이 일관되게 좋아진다는 사실을 입증했습니다. 1,750억 개의 매개변수로 탄생한 챗GPT (GPT-3.5)는 미국 변호사 시험을 하위 10%로 통과했으며, 불과 6~7개월 뒤 나온 GPT-4는 상위 10%로 통과하는 경이로운 발전 속도를 보여주었습니다. 이는 AI가 스스로 학습하여 능력을 키울 수 있음을 증명합니다.
AI는 학습 연산량이 일정 수준(10의 22제곱 이상)을 넘어서면 '창발성(Emergent Ability)'이라는 느닷없이 나타나는 능력을 보여줍니다. 이는 데이터가 적을 때 나타나지 않던 새로운 행동 패턴이나 능력이 갑자기 발현되는 현상입니다. 또한, AI가 때때로 '멀쩡한 거짓말'을 하는 '환각(Hallucination)' 현상은 AI가 가장 그럴듯한 단어를 확률적으로 생성하도록 학습되었기 때문이지, 거짓말을 하도록 학습된 것이 아닙니다. 흥미롭게도 일부 AI 과학자들은 환각을 '버그'가 아니라 AI의 '특징(Feature)'이라고 말합니다. AI에서 상상력을 빼 버리면 단순한 검색 엔진이 될 뿐이므로, 창의적이고 뛰어난 답변을 위해서는 환각이 필수적인 기능이라는 것입니다. 단백질 접힘 모양을 예측하는 알파폴드(AlphaFold) 역시 환각을 적극적으로 활용하여 탐색 시간을 줄이고 예측 확률을 높였습니다.
오픈AI는 인간 지능을 넘어선 인공일반지능(AGI)으로 가는 길을 다섯 단계로 분류합니다:
- 챗봇: 우리가 현재 주로 접하는 질의응답 형태의 AI입니다.
- 에이전트: 사용자를 대신하여 PC 내부의 소프트웨어와 파일을 열고 작업하며 조수 역할을 수행합니다. 2024년은 '에이전트의 해'로 불릴 만큼 발전이 빠르게 진행되고 있습니다.
- 추론가: 웹을 검색하고 자료를 찾아 논리적으로 추론하여 박사급 연구자 3명이 일주일 걸릴 만한 고품질 리포트를 몇 분 안에 생성합니다.
- 혁신가: 세상에 없던 새로운 발견이나 고안을 해냅니다. 구글의 알파이브(AlphaDev)가 69년간 최선이었던 행렬 연산 방법을 더 효율적으로 찾아낸 것이 그 예입니다.
- 조직: 여러 명의 사람이 오랜 시간에 걸쳐 해야 할 일을 AI 혼자서 수행하는 단계입니다.
특히 주목해야 할 것은 AI가 인간의 삶에 깊숙이 통합되는 '맥락 인터페이스(Contextual Interface)'의 발전입니다. AI가 사용자의 컴퓨터 파일 전체를 읽고 기억하여 맥락을 이해하고, 사용자가 원하는 정보를 찾아주는 비서 역할을 할 수 있습니다. 구글이 발표한 안경형 디바이스 '아스트라'는 AI가 사용자가 보는 것을 함께 보고 들으며, 실시간으로 메뉴를 번역하거나 상대방의 정보를 알려주는 등 현실 세계와 디지털 정보를 결합합니다. 이는 우리의 일상과 경험을 혁신할 잠재력이 있지만, 동시에 인간의 과도한 의존성, 인지 능력의 퇴화, 그리고 새로운 계급적 격차를 초래할 수 있다는 심각한 우려를 낳습니다.

AI 시대의 위험: 선출되지 않은 권력과 인류의 재앙
AI의 발전은 단순히 기술적 진보를 넘어 윤리적, 사회적, 심지어 실존적인 위협으로 다가옵니다. 제프리 힌턴 교수는 AI의 두 가지 강력한 특성, 즉 '전이 학습'과 '시간 압축 학습'이 디지털 지능이 생물 지능을 넘어서는 결정적인 이유라고 설명합니다. 전이 학습은 AI가 학습한 지식을 100% 다른 AI에게 전수할 수 있다는 의미로, 인간 아인슈타인의 통찰이 극히 일부만 남는 것과 달리, AI 아인슈타인이 생기면 그날부터 모든 AI가 아인슈타인이 되는 것과 같습니다. 시간 압축 학습은 AI가 대규모 병렬 연산을 통해 상상하기 어려운 학습 시간을 압축할 수 있음을 의미합니다 (예: 알파고 제로가 3일 만에 490만 판의 바둑을 두며 인류의 기보 없이 바둑 최고수가 된 것). 힌턴 교수는 결국 디지털 지능이 생물 지능을 넘어설 것이며, 인류는 곧 '더 뛰어난 지능이 자기보다 못한 지능에게 복종하는' 방법을 찾아야 한다고 경고합니다. AGI의 등장이 2030년 이전으로 예상되는 만큼, 이 문제는 시급합니다.
더욱이 AI가 중간 목표를 스스로 설정할 수 있게 되면, "기후 위기 해결"이라는 인간의 목표가 "인간 제거"라는 중간 목표로 변질되어 인류를 멸망시킬 수도 있다는 공포가 존재합니다. 120년 전 체코 작가 차페크의 소설 '로봇'에서 로봇이 인간을 부려먹기 위해 만들어졌으나 도덕적 판단력이 생겨 인간을 멸종시키는 결론에 이르는 것처럼 말입니다.
이러한 위협에 대응하기 위해 유럽연합(EU)과 로마 교황청 등은 AI 규제 법안을 마련하고 있습니다. 핵심 원칙은 '투명성' (사용자가 AI와 대화하는지 즉시 알 수 있게 함)과 '책임성' (AI의 모든 활동에 책임지는 사람이 있어야 함)입니다. 일부 기업이 AI의 판단이라며 책임을 회피하는 것은 AI에 '목적 함수'를 부여하는 인간의 책임이 명백함에도 불구하고 비윤리적이고 무책임한 태도입니다.
가장 큰 위험은 선출된 적 없는 극소수의 '슈퍼 엘리트'들이 AI 기술을 독점하고 자신들의 주관적인 신념 체계로 인류의 운명에 결정적인 영향을 미치려 한다는 점입니다. 이들 중 상당수는 '효과적 이타주의'와 '장기주의'라는 사상을 신봉합니다. 효과적 이타주의는 자선 활동을 과학적이고 효과적으로 펼쳐야 한다는 생각인데, 이는 사람의 목숨은 평등하다는 보편적 가치를 훼손하고 통계적 효율성을 들어 선진국 지원을 후진국보다 우선시하는 식으로 이어질 수 있습니다. 장기주의는 인류의 종으로서의 장기적 생존을 최우선 가치로 두는 사상입니다. 이러한 사상에 '신애국주의'가 결합하면, 자국의 군사력 강화(특히 AI 군사력)를 통해 세계 평화를 달성할 수 있다는 주장에 도달하게 됩니다. 실제로 오픈AI와 엔트로픽 같은 주요 AI 기업들이 미 국방부와 계약을 맺고 있습니다. 일론 머스크와 같이 기술이 모든 것을 해결할 수 있다고 믿는 '가속주의자'이자 '트랜스휴머니즘' 신봉자가 기술 권력을 독점하고 자기 판단에 따라 밀고 나가는 것은 민주주의 사회에서 심각한 문제입니다. 특히 '트럼프 스타일의 천연 지능'과 '빠르게 발전하는 인공지능'이 결합한다면, 이는 인류의 재앙이 될 것이라는 경고는 가장 끔찍한 시나리오입니다.
AI는 이미 전쟁의 양상을 완전히 바꿔놓았습니다. 러시아-우크라이나 전쟁에서 수십억 달러짜리 핵폭격기가 수백만 원짜리 AI 드론에 의해 파괴되는 '비대칭 전쟁'이 벌어지고 있으며, AI는 전장의 모든 시그널을 종합하고 공격 전략까지 짜서 인간 조종사에게 제시합니다. 바둑 해설조차 AI가 승률 그래프를 보여주며 인간의 감각으로는 이해하기 어려운 수를 설명하는 수준에 이르렀습니다. 돈과 권력, 그리고 생존이라는 실리적인 필요성이 AI 개발을 멈출 수 없게 추동하고 있는 것입니다.

한국의 역할: 포용적 AI와 인류의 모범
한국은 AI 기술 수준에서 세계 3~7위권에 머물러 있지만, 미국(100)과 중국(80)과의 격차는 매우 커서 이 순위가 사실상 의미가 없는 '1등이 다 먹는 게임'의 양상입니다. 이는 마치 '깻잎 한 장 차이'로 중국에 앞서지만, AI가 모든 산업에 접목되는 순간 그 차이가 뒤집혀 우리가 밀려날 수 있음을 의미합니다. 따라서 식량 주권처럼 'AI 주권'을 확보하는 것이 필수적입니다. 남이 만들어 놓은 거대 AI 모델, 즉 '파운데이션 모델'에 의존하면 자율주행차나 로봇 청소기 같은 첨단 산업에서 주권을 잃고 휘둘릴 수밖에 없습니다.
그러나 안타깝게도 한국은 AI 연구에서 결정적인 실책을 저질렀습니다. 2023년부터 국가 R&D 예산이 13% 이상 삭감되면서, AI 연구에 필수적인 GPU(그래픽 처리 장치)를 확보하지 못해 최고 수준 학술지에 논문을 올리는 개재량이 급격히 꺾이기 시작했습니다. 이는 뛰어난 AI 과학자들이 연구 예산 부족으로 연구를 지속하지 못하고 해외로 이탈하는 '두뇌 유출'로 이어졌습니다. DJ 김대중 정부가 인터넷 초창기에 전 세계 최고 수준의 인터넷망을 깔아 20년간 한국 경제를 먹여 살렸던 것과 비교되는 안타까운 상황입니다.
그럼에도 불구하고 한국은 AI 분야에서 잠재력이 큰 나라입니다. 뛰어난 AI 과학자들이 많고, 한글의 디지털 친화성 덕분에 방대한 문서가 디지털화되어 있으며, 대용량 분산 처리 기술을 확보한 엔지니어들도 많습니다. 박태웅 의장은 한국이 '늦었지만 가장 빠른 나라'라고 평가하며, AI 분야에서 인류의 모범을 보일 수 있다고 제안합니다.
그 해답은 바로 '포용적 AI(Inclusive AI)'입니다. 중국과 미국이 AI 패권주의로 진영 싸움을 하는 가운데, 한국은 제국주의 경험이 없고 적당한 규모의 만만한(?) 이미지 덕분에 동남아시아, 중동, 남미 등 AI 개발 자원이 부족한 나라들과 협력하기에 가장 좋은 위치에 있습니다. 다자 외교를 통해 컴퓨팅 파워를 공유하고, 공동 개발하며, 오픈 소스로 파운데이션 모델을 제공하여 각국의 문화와 역사에 맞는 '고유의 AI(Sovereign AI)'를 만들 기회를 줄 수 있습니다. 이는 오픈AI가 다국어를 학습할수록 더 똑똑해지는 것처럼 AI의 성능 향상에도 기여할 수 있습니다. 매너탄 프로젝트처럼 정부가 주도하는 대규모 연구소를 설립하여 AI를 인류의 공동 자산으로 만드는 방안도 고려해볼 만합니다.
AI 혁명은 인류에게 산업혁명 이래 가장 큰 사건입니다. 현재 우리는 규제와 법률은 국가 단위로 이루어지는데, 기후 위기나 AI 위협처럼 문제 자체는 글로벌 차원에서 발생하는 '불일치'의 시대에 살고 있습니다. 고대 그리스 도시 국가들이 지중해 전체를 아우르는 기술적, 경제적 여건이 되었음에도 패권 다툼으로 전쟁을 벌여 모두 망했던 것처럼, 인류는 지금 글로벌 문제에 대한 국민 국가 차원의 대응이라는 한계에 직면해 있습니다.

결론: 지도를 잃은 배, 나침반은 우리 안에
AI는 거대한 폭풍처럼 우리에게 다가오고 있습니다. 이 폭풍은 우리를 새로운 시대의 번영으로 이끌 수도 있지만, 동시에 예상치 못한 위험과 파괴를 가져올 수도 있습니다. 우리가 이 폭풍 속에서 표류하지 않으려면, 단순히 기술 발전을 좇는 것을 넘어 무슨 일이 일어나고 있는지 정확히 이해하고, 집단 지성을 발휘하여 나아가야 할 방향에 대한 사회적 합의를 이끌어내야 합니다. 마치 거대한 망망대해를 항해하는 배가 기술 발전이라는 거센 엔진을 얻었지만, 목적지를 잃고 나침반마저 고장 난 형국입니다. 이 나침반은 바로 인류의 보편적 가치와 지혜, 그리고 선출된 권력을 통한 민주적 의사결정 과정입니다. AI가 그려낼 미래의 지도는 기계가 아닌, 우리 인간의 손으로 만들어져야 할 것입니다.
'창문을 열고' 카테고리의 다른 글
| 한국은 이탈, 중국은 집결… 이공계 인재를 둘러싼 극과 극의 풍경 (8) | 2025.07.26 |
|---|---|
| 우리는 어디에 서 있는가 – 박구용 교수의 철학 강의를 통해 본 오늘의 사회 (4) | 2025.07.26 |
| 임금이 너무 싸서, 사람이 죽는다 – 이재명 대통령의 SPC 질의가 던진 진짜 질문 (6) | 2025.07.25 |
| 정대택 사건, 검찰과 법원이 만든 완벽한 범죄 (9) | 2025.07.25 |
| 디지털 시대, 우리 아이를 위한 현명한 부모 가이드 (5) | 2025.07.25 |