솔직히 저는 처음에 AI를 그냥 검색의 업그레이드 버전 정도로만 생각했습니다. 논문 몇 편 요약해주고 번역 좀 도와주는 정도겠지, 하고 가볍게 시작했는데 직접 써보니 생각이 완전히 달라졌습니다. 동시에 이게 정말 인간의 지능을 넘어설 수 있는 기술인지, 아니면 부풀려진 기대인지 헷갈리기도 했습니다. 그 혼란을 정리해보려 이 글을 씁니다.

AGI 단계, 어디까지 왔나
AGI란 Artificial General Intelligence의 약자로, 특정 분야가 아닌 인간이 하는 거의 모든 지적 활동에서 인간 수준 이상의 성과를 낼 수 있는 인공 일반 지능을 뜻합니다. 지금 우리가 쓰는 챗GPT 같은 도구는 대화형 AI, 즉 AGI로 가는 첫 단계에 불과합니다.
오픈AI는 AGI로 가는 단계를 다음과 같이 정의한 바 있습니다.
- 1단계: 대화형 봇 (현재 챗GPT 수준)
- 2단계: 추론형 AI (복잡한 문제를 스스로 논리적으로 풀어냄)
- 3단계: 에이전트 (사람 대신 여러 작업을 자율적으로 수행)
- 4단계: 혁신가 (세상에 없던 개념이나 발명을 만들어냄)
- 5단계: 조직형 AI (회사 단위의 업무를 혼자 수행)
현재 기술 수준은 2단계와 3단계 사이 어딘가에 위치한다고 보는 시각이 많습니다. 제가 직접 써봤는데, 추론 능력은 꽤 인상적이었습니다. 논문 다섯 편을 비교 분석해달라고 했더니 예전에 제가 며칠 걸렸던 작업을 30분도 안 돼서 초안으로 정리해줬습니다. 물론 그 초안을 그대로 쓰지는 않았지만요.
딥러닝(Deep Learning)이라는 개념도 여기서 빠질 수 없습니다. 딥러닝이란 인간 뇌의 신경망 구조를 모방해 데이터에서 스스로 패턴을 찾아내는 기계 학습 방식입니다. 지금의 AI 붐은 사실상 이 딥러닝 기술을 세상에 알린 제프 힌튼 교수에서 출발했다고 해도 과언이 아닙니다. 그가 2024년 노벨 물리학상을 수상한 것도 그만큼 이 기술의 파급력이 인정받았기 때문입니다(출처: 노벨상 공식 사이트).
또 하나 인상 깊었던 개념이 트랜스퍼 러닝(Transfer Learning)입니다. 트랜스퍼 러닝이란 한 AI가 학습한 지식과 능력을 다른 AI가 그대로 이어받아 시작하는 방식으로, 인간이 세대 간 지식을 전달하는 방식과 근본적으로 다릅니다. 아인슈타인이 죽으면 그의 뇌 안에 있던 모든 깨달음은 함께 사라지지만, AI는 가장 뛰어난 모델이 바닥선(baseline)이 되어 다음 모델이 거기서부터 출발합니다. 인간의 축적 방식과 차원이 다른 이야기입니다.
알파폴드(AlphaFold) 사례는 이 기술의 실질적인 파급력을 가장 잘 보여줍니다. 단백질의 3차원 구조를 실험 없이 예측하는 것은 생물학계에서 수십 년간 풀리지 않던 난제였습니다. 2020년 알파폴드가 이 문제를 풀어냈을 때, 처음에는 반신반의하던 연구자들도 결국 "실험으로 얻은 데이터와 다를 게 없다"고 인정하기 시작했습니다. 지금은 알파폴드로 예측한 구조를 논문에서도 그대로 인용하는 시대가 됐습니다(출처: 구글 딥마인드 알파폴드).
할루시네이션과 질문의 질, 직접 겪어보니
제가 실무에서 AI를 쓰면서 가장 먼저 데인 경험이 바로 할루시네이션(Hallucination) 문제였습니다. 할루시네이션이란 AI가 사실이 아닌 정보를 마치 사실인 것처럼 자연스럽게 생성하는 현상을 뜻합니다. 존재하지 않는 논문 제목을 그럴듯하게 만들어내거나, 틀린 수치를 아무런 망설임 없이 제시하는 식입니다.
처음에는 그냥 믿고 사용했다가 낭패를 본 적도 있습니다. 공정 관련 수치를 AI가 정리해준 내용을 보고서에 그대로 썼는데, 나중에 교차 검증하니 출처가 없는 숫자였습니다. 그 이후로 AI 결과물은 반드시 원본 자료와 대조하는 습관을 들였습니다. GPT-4 기준 할루시네이션 발생률이 약 7% 수준이라는 분석도 있는데, 생각보다 꽤 높은 수치입니다.
그렇다고 AI를 못 쓸 도구라고 보지는 않습니다. 알파폴드도 자체적으로 예측 신뢰도를 수치화해서 함께 제공합니다. 예컨대 "이 부분은 90% 확신" "이 부분은 50% 확신"처럼 스스로 불확실성을 표시해줍니다. 이렇게 검색 증강 생성(RAG, Retrieval-Augmented Generation)이나 자체 검증 방식을 결합하면 할루시네이션을 상당히 줄일 수 있습니다. RAG란 AI가 답변을 생성하기 전에 신뢰할 수 있는 외부 데이터베이스에서 먼저 정보를 검색해 참고하는 방식으로, 그냥 학습 데이터만으로 답변을 만드는 것보다 훨씬 정확도가 올라갑니다.
직접 써보니 또 하나 확실하게 느낀 게 있습니다. 질문의 질이 결과의 질을 결정한다는 것입니다. 단순하게 "이거 설명해줘"와 "이 개념을 초등학생도 이해할 수 있게, 예시 두 개를 들어서 설명해줘"는 결과가 완전히 다릅니다. 맥락과 조건을 구체적으로 넣을수록 답변의 정밀도가 올라갑니다. 결국 AI를 잘 쓰는 사람과 못 쓰는 사람의 격차는 도구 자체보다 질문하는 능력에서 갈립니다.
이 지점에서 저는 AI가 능력을 증폭시키는 증폭기라는 표현이 꽤 정확하다고 느꼈습니다. 평범한 사용자는 효율이 30% 정도 오르는 반면, 이미 실력이 뛰어난 사람은 AI 덕분에 열 배, 스무 배의 생산성을 낼 수 있다는 이야기도 충분히 납득이 됩니다. 이게 기술이 불평등을 줄이는 게 아니라 오히려 확대할 수 있다는 우려로 이어지는 이유이기도 합니다.
AI 기술 자체가 빠르게 발전하는 것과 별개로, 제도와 사회 구조가 그 속도를 따라가지 못하면 산업혁명 초기처럼 생활 수준이 오히려 하락하는 시기가 올 수 있습니다. 역사적으로 기술이 가져온 혼란을 사회가 수습하는 데 90년 가까이 걸린 사례도 있으니까요. 결국 AI 시대를 잘 버티려면 최신 도구를 쓰는 것만큼, 정확한 질문을 던질 수 있는 교양과 판단력을 쌓는 것이 더 중요한 시대가 됐다고 생각합니다. 지금 이 글을 읽고 있다면, AI를 일단 한 번 제대로 써보시길 권합니다. 믿기 전에 검증하고, 묻기 전에 구체적으로 생각하는 것, 그게 AI 시대의 기본기입니다.
참고: AI 특이점, 5년 안에 온다고? 프콘도 깜짝 놀란 과학자들의 진짜 AI 썰 (feat. 박태웅 의장) [취미는 과학/ 24화 확장판] :
https://www.youtube.com/watch?v=0KDosjF0iYM&list=PLkKcqR2KGxgzqeKZo1Rx93kJFokuVkpye&index=63