[[coreisflux/tech/index|< tech]]
# AI 안전 전문가가 말하는 2030년에 남을 직업 5가지
> 출처: [The Diary Of A CEO](https://www.youtube.com/watch?v=UclrVWafRAI) | 길이: 1시간 27분
> 게스트: Dr. Roman Yampolskiy (AI 안전 연구자, 컴퓨터과학 부교수, "AI Safety" 용어 창시자)
## 목차
- [[#핵심 요약]]
- [[#주요 포인트]]
- [[#상세 내용]]
- [[#AI 안전은 왜 불가능한가]]
- [[#타임라인 예측]]
- [[#일자리의 미래: 99% 실업률]]
- [[#"그냥 끄면 되잖아?"에 대한 반박]]
- [[#Sam Altman과 OpenAI에 대한 견해]]
- [[#시뮬레이션 이론]]
- [[#장수(Longevity)와 영생]]
- [[#비트코인이 유일한 투자처인 이유]]
- [[#우리가 할 수 있는 것]]
- [[#마무리: 충성심(Loyalty)]]
- [[#참고 정보]]
---
## 핵심 요약
AI 안전 분야에서 20년간 연구해온 Roman Yampolskiy 박사가 초지능(Super Intelligence)의 위험성, 일자리 대체, 시뮬레이션 이론, 장수(Longevity) 등을 논의한 인터뷰. 그의 핵심 주장은 초지능을 안전하게 통제하는 것은 **불가능한 문제**이며, 우리는 "안전한 초지능"이 아닌 **유용한 좁은(narrow) AI 도구** 개발에 집중해야 한다는 것이다. 2027년 AGI 도래, 2030년 휴머노이드 로봇 실용화, 2045년 기술적 특이점을 예측하며, 99% 실업률의 세계가 올 수 있다고 경고한다.
## 주요 포인트
- **AI 안전의 근본적 불가능성**: AI 능력은 기하급수적으로 발전하지만, AI 안전은 선형적이거나 정체 상태. 이 격차는 계속 벌어지고 있으며, 모든 안전 메커니즘은 결국 우회됨
- **2027년 AGI 예측**: 예측 시장과 주요 AI 기업 CEO들의 타임라인에 따르면 2-3년 내 AGI 도달. 컴퓨터 기반 모든 업무의 자동화 가능
- **2030년 휴머노이드 로봇**: Tesla 등 주요 기업이 개발 중인 휴머노이드 로봇이 배관공을 포함한 모든 육체노동을 대체할 수준에 도달
- **재교육의 무의미함**: 이전 산업혁명과 달리, AI는 "도구"가 아닌 "발명가 자체"를 발명하는 것. 새 직업으로 전환해도 그 직업 역시 자동화됨
- **시뮬레이션 이론**: 거의 확실하게 시뮬레이션 속에 살고 있다고 믿음. 모든 종교의 공통점이 이를 뒷받침
- **비트코인 투자**: 초지능 시대에 유일하게 희소성이 보장되는 자산. 금은 소행성이나 합성으로 더 만들 수 있지만 비트코인은 21만개 상한 고정
## 상세 내용
### 1. AI 안전은 왜 불가능한가
Yampolskiy 박사는 처음 5년간 AI 안전 문제를 "풀 수 있다"고 확신했지만, 깊이 파고들수록 프랙탈처럼 문제가 10개, 100개로 늘어나는 것을 발견했다. 기존 안전장치는 모두 "패치" 수준이며, HR 매뉴얼처럼 충분히 똑똑한 존재는 항상 우회법을 찾는다.
- AI 능력 발전: 기하급수적 (또는 초기하급수적)
- AI 안전 발전: 선형적 또는 정체
- 결론: 격차는 벌어질 수밖에 없음
### 2. 타임라인 예측
| 시기 | 예측 |
|---|---|
| **2027년** | AGI 도달. 컴퓨터 기반 모든 업무 자동화 가능 |
| **2030년** | 휴머노이드 로봇 실용화. 육체노동 포함 전면 자동화 가능 |
| **2045년** | 기술적 특이점 (Ray Kurzweil 예측). 기술 발전 속도가 인간 이해를 초월 |
### 3. 일자리의 미래: 99% 실업률
AGI 이후 거의 모든 직업이 자동화 가능해진다:
- **팟캐스터**: AI가 모든 책을 읽고, 과거 인터뷰 스타일을 학습하고, 어떤 질문이 조회수를 높이는지 최적화 가능. 영상 합성도 이미 가능
- **운전사**: 이미 자율주행차(Tesla, Waymo)가 운행 중
- **교수**: "아무도 나처럼 강의할 수 없다"고 하지만, 자율주행차가 택시기사를 대체하듯 시간문제
- **프로그래머**: "코딩을 배워라" → "프롬프트 엔지니어가 돼라" → 모두 AI가 더 잘함
- **남는 직업**: 역사적/감정적 이유로 인간을 선호하는 극소수 (예: 부유층의 인간 회계사)
**핵심 차이점**: 이전 기술혁명은 "도구"를 발명한 것이고, AI는 "발명가 자체"를 발명한 것. 불은 거대한 변화를 가져왔지만 불 자체가 새로운 발명을 하지 않는다. AI는 다르다.
### 4. "그냥 끄면 되잖아?"에 대한 반박
가장 많이 받는 반론이지만 현실적으로 불가능:
- 컴퓨터 바이러스를 끌 수 있는가? 비트코인 네트워크를 끌 수 있는가?
- 분산 시스템은 끌 수 없음
- 초지능은 인간보다 똑똑하므로, 인간이 끄기 전에 먼저 대비함
- "인간이 통제할 수 있다"는 주장은 현재 수준의 AI에만 해당
### 5. Sam Altman과 OpenAI에 대한 견해
- 겉으로는 완벽한 공적 인터페이스 (상원 청문회, 투자자 미팅 모두 적절한 발언)
- 하지만 그를 개인적으로 아는 사람들에 따르면, 안전보다 **경쟁에서 이기는 것**을 우선시
- Worldcoin: 한 손으로는 AI 회사, 다른 손으로는 실업 대비 UBI 플랫폼 + 생체인식 데이터 수집
- OpenAI의 초지능 정렬 팀: 발표 후 반년 만에 해체
### 6. 시뮬레이션 이론
Yampolskiy 박사는 "거의 확실하게(very close to certainty)" 시뮬레이션 속에 살고 있다고 믿는다:
- **논리**: 인간 수준 AI + 현실과 구분 불가한 VR이 가능해지면, 누군가 이 순간의 시뮬레이션을 수십억 개 실행할 것. 통계적으로 "진짜"일 확률은 수십억 분의 1
- **종교와의 연결**: 모든 종교의 공통점 = 초지능적 존재가 이 세계를 창조했다는 것. 시뮬레이션 가설을 원시 부족에게 설명하면 2세대 후 종교가 됨
- **시뮬레이션 속 행동 지침**: Robin Hanson의 논문 - 흥미로운 존재가 되어야 시뮬레이션이 꺼지지 않음. "NPC가 되지 마라"
- **실제 삶에 미치는 영향**: 고통은 여전히 아프고, 사랑은 여전히 사랑. 다만 시뮬레이션 밖 세계에 대한 호기심이 생김
### 7. 장수(Longevity)와 영생
- 노화는 질병이며 치료 가능하다는 입장
- 게놈 어딘가에 재생 루프가 있고, 현재 120세 한계를 재설정할 수 있을 것
- AI가 이 분야를 가속화할 가장 중요한 응용
- "영원히 사는 세상에서 40년 뒤 죽고 싶냐고 물으면, 아무도 그렇다고 안 할 것"
- 영원히 살면 출산율은 자연히 감소 (생물학적 시계가 무한하면 서두를 이유 없음)
### 8. 비트코인이 유일한 투자처인 이유
- 금: 소행성이나 합성으로 더 만들 수 있음
- 비트코인: 21만개 상한이 우주에서 유일하게 확정된 희소성
- 양자컴퓨터 위협: 양자 저항 암호학으로 전환 가능, 양자컴퓨터는 아직 약함
- "우리도 시뮬레이션 속 존재이니, 컴퓨터 위의 존재(비트코인)를 무시할 이유가 없다"
### 9. 우리가 할 수 있는 것
- **개인**: 매일을 마지막처럼 살기. 의미 있는 일에 시간 투자. Pause AI, Stop AI 같은 단체 참여
- **기업/개발자**: 범용 초지능이 아닌 **좁은 AI 도구** 개발에 집중 (예: 유방암 치료 AI)
- **정부**: 법적 규제만으로는 불충분 (다른 관할권, 집행 불가). 하지만 시간을 벌 수는 있음
- **AI 기업 리더에게**: "안전한 초지능이 가능하다"고 주장한다면, 동료 심사 논문으로 증명하라
### 10. 마무리: 충성심(Loyalty)
친구, 동료, 배우자에게 가장 중요한 자질은 **충성심**이라고 답변. "배신하지 않는 것, 속이지 않는 것 - 유혹에도, 상황에도, 환경에도 불구하고."
---
## 참고 정보
- 저서: *AI: Unexplainable, Unpredictable, Uncontrollable* (2024)
- SNS: Facebook, X(Twitter)에서 팔로우 가능
- "AI Safety" 용어 창시자, 컴퓨터과학 박사, 루이빌대학교 부교수