AI 기술은 2022년 11월 ChatGPT의 출현 이후로 폭발적인 변화를 겪어왔습니다. 이제는 단순한 언어 모델을 넘어, 현실 세계에서 행동하고 상호작용하는 인공지능의 시대를 맞이하고 있습니다. 본 글에서는 엔비디아 CEO 젠슨 황이 CES 2026 기조연설에서 제시한 AI 트렌드 타임라인을 바탕으로, AI의 발전 과정을 살펴보겠습니다. 각 단계에서는 과거 문제, 해결 방안, 새로운 한계와 기술적 진전을 종합적으로 분석합니다.
AI 진화의 초기 단계: GPT-3 이전의 AI와 문제점
초기 문제점: 데이터와 모델의 분산화
2010년대 후반까지 AI는 주로 특정 용도에 맞춰진 모델들이 존재했습니다. 번역기나 챗봇과 같은 각각의 기능을 위해 별도의 AI를 개발해야 했고, 이로 인해 데이터 수집과 모델 훈련에 막대한 시간과 비용이 소요되었습니다. 또한, 당시의 주류 기술인 RNN(순환신경망)은 긴 문장을 처리하는 데 있어 기억의 한계 때문에 많은 문제를 안고 있었습니다. 이러한 문제는 AI의 활용도를 크게 제한하고 있었습니다.
해결 방안: 트랜스포머의 혁신
2017년, ‘트랜스포머(Transformer)’라는 새로운 구조가 등장하면서 AI의 패러다임이 전환됩니다. 트랜스포머는 문장을 한 줄씩 읽는 대신, 단어들 간의 관계를 동시에 파악할 수 있도록 설계되어 이해력과 처리 속도가 크게 향상되었습니다. 이 구조는 2018년 등장한 BERT 모델에 적용되어, 사전학습된 데이터를 기반으로 보다 효과적인 성능을 발휘하게 되었습니다. 이 혁신은 AI 모델이 문장 내의 모든 단어를 동시에 고려할 수 있는 능력을 부여했습니다.
남은 과제: 모델의 한계와 확장 가능성
하지만 여전히 한계는 존재했습니다. AI 모델은 특정 데이터셋에 대해 파인튜닝을 거쳐야 했고, 성능을 높이기 위해서는 대량의 컴퓨팅 자원이 필요했습니다. 모델의 기억 용량 또한 제한적이어서 긴 문서를 처리할 때 품질이 저하되는 문제가 있었습니다. 이러한 문제를 해결하기 위한 새로운 접근이 필요했습니다. AI 연구자들은 ‘더 큰 단일 모델(Scaling Law)’을 통해 성능을 극대화할 수 있다는 가능성을 탐구하게 됩니다.
AI의 혁신: GPT-3 및 ChatGPT의 출현
당시 문제: 한계와 불신
GPT-3는 놀라운 언어 처리 능력을 보여주었지만, 여전히 여러 허점이 존재했습니다. AI가 제공하는 정보의 신뢰성이 낮고, 최신 정보에 대한 접근이 불가능해 사용자들에게 혼란을 초래했습니다. 이러한 문제는 AI의 활용을 제약하는 요소로 작용했습니다.
해결 방안: 인간의 피드백을 통한 강화 학습
OpenAI는 이러한 문제를 해결하기 위해 RLHF(강화 학습을 통한 인간 피드백) 기법을 도입했습니다. 이를 통해 AI는 인간의 평가를 기반으로 더욱 적절한 답변을 생성할 수 있도록 학습하게 되었습니다. ChatGPT는 이러한 과정을 통해 대중에게 공개되며, AI의 활용 방안이 더욱 다양화되었습니다.
남은 과제: 신뢰성과 일관성 부족
ChatGPT는 여러 면에서 발전했지만 여전히 신뢰성과 일관성에서 문제가 있었습니다. 긴 대화가 이어질수록 이전 대화 내용을 잊어버리는 등의 문제는 여전히 남아 있었습니다. 사용자들은 “정확하고 신뢰할 수 있는 답변”을 요구하게 되었고, AI는 이러한 요구를 충족하기 위해 RAG(검색 증강 생성) 기술을 탐구하게 됩니다.
RAG 시대: 정보의 정확성과 신뢰성 향상
문제점: 정보의 신뢰도 부족
ChatGPT 사용 초기에는 사용자가 제공하는 정보의 출처가 불분명하다는 점에서 아쉬움을 느끼게 되었습니다. 정보의 출처가 없거나 최신 데이터를 반영하지 못하는 경우가 많았고, 이러한 점은 AI의 신뢰성을 크게 저하시키는 원인이 되었습니다.
해결 방안: 검색 증강 생성 기술
AI 연구자들은 모델이 답변하기 전에 필요한 정보를 검색하도록 하는 RAG 기술을 도입했습니다. 벡터 데이터베이스를 활용하여 관련 정보를 빠르게 찾아내고, 이를 기반으로 사용자에게 더욱 신뢰할 수 있는 답변을 제공할 수 있게 되었습니다. 이 기술을 통해 AI는 최신 정보와 도메인 특화된 지식을 활용하여 답변의 품질을 높이는 데 성공하였습니다.
남은 과제: 복잡한 문제 해결의 한계
하지만 RAG 기술에도 한계는 존재했습니다. 검색이 잘못되면 틀린 정보를 가져오거나, 여러 문서를 종합하여 논리적으로 추론해야 하는 복잡한 과제에서는 품질이 저하되는 경향이 있었습니다. 사용자는 이제 AI에게 단순한 정보 검색을 넘어, 여러 근거를 엮어 결론을 내달라는 요구를 하게 되었습니다. 이러한 수요는 AI의 추론 능력을 요구하게 만듭니다.
추론 모델: Reasoning의 발전
문제점: 복잡한 추론의 필요성
RAG 기술 덕분에 AI가 정확한 출처 기반의 답변을 제공할 수 있게 되었지만, 여전히 수학, 코딩, 논증과 같은 복잡한 질문에 대한 답변 품질은 떨어졌습니다. 사용자들은 “설득력 있는 추론”을 요구하며 AI의 지능적인 반응을 기대하게 됩니다.
해결 방안: Chain-of-Thought 및 Tree-of-Thought 기법
이러한 요구에 대응하기 위해 AI 학자들은 Chain-of-Thought(CoT)와 Tree-of-Thought(ToT)와 같은 기법을 개발했습니다. CoT는 사고 과정과 문제 해결 과정을 단계적으로 설명하도록 하여 정확도를 높이고, ToT는 다양한 가능성을 탐색하여 최적의 답변을 도출하는 데 기여합니다. 이러한 기법들은 AI의 사고 능력을 한층 끌어올리는 데 중요한 역할을 하였습니다.
남은 과제: 자율성의 결여
추론 모델은 여러 문제를 해결할 수 있게 되었지만, 여전히 “계획-행동-피드백”의 실행 루프가 부재했습니다. 사용자는 AI가 스스로 목표를 설정하고, 도구를 활용하여 행동을 실행하기를 원하게 됩니다. 따라서 AI의 자율성을 강조하는 연구가 진행되고 있습니다.
Agentic AI: 자율적 행동의 시대
문제점: 자율성을 갖춘 AI의 필요성
Reasoning Model을 통해 AI는 사고할 수 있는 능력을 갖추게 되었지만, 여전히 스스로 목표를 정하고 실행하는 데는 한계가 있었습니다. 사용자는 AI가 자율적으로 행동할 수 있는 기능을 원하게 되었습니다.
진행되고 있는 해결 방안: 에이전트 구축 도구
OpenAI는 이러한 요구를 충족하기 위해 에이전트 구축을 위한 새로운 도구를 출시했습니다. 이 도구는 사용자가 복잡한 작업을 스스로 수행할 수 있도록 돕는 기초 블록을 제공합니다. 사용자는 이제 AI가 스스로 목표를 설정하고, 이를 달성하기 위한 계획을 세우는 것을 기대할 수 있게 되었습니다.
전망: AI의 미래와 과제
AI 기술의 발전은 여전히 진행 중이며, 연산 비용 최적화와 멀티 모달 데이터 처리 같은 과제가 남아 있습니다. 또한, AI가 실제 산업 현장에서 활용될 수 있도록 하는 Embodiment 연구도 활발하게 진행되고 있습니다. 이는 AI가 현실 세계와 상호작용할 수 있는 가능성을 열어 줄 것입니다.
AGI와 로보틱스: 미래의 비전
Embodiment의 필요성
Agentic AI는 디지털 환경에서 자율적으로 작업을 수행할 수 있는 능력을 갖추게 되었지만, 현실 세계에서의 적용은 여전히 많은 과제를 안고 있습니다. AI가 카메라와 센서를 통해 데이터를 이해하고, 모터를 통해 물리적 작업을 수행할 수 있어야 합니다.
로봇 AI의 발전
젠슨 황 CEO는 CES 2025에서 로봇과 자율 기기를 위한 새로운 솔루션을 제안하며, AI와 물리적 세계 간의 융합이 필요하다고 강조했습니다. 이처럼 Embodiment 단계에서 로봇 AI는 AI가 현실 세계에서 다양한 작업을 수행할 수 있는 기반을 마련할 것으로 기대됩니다.
AGI의 출현
AGI(일반 인공지능)의 개발은 인공지능이 인간과 유사한 수준의 지능을 갖추게 되는 것을 의미합니다. 이는 AI가 인간과 상호작용하며, 다양한 지적 작업을 수행할 수 있는 가능성을 열어줄 것입니다. AI의 진화는 이제 시작에 불과하며, 앞으로의 발전이 기대됩니다.
AI의 진화는 단순한 기술적 변화에 그치지 않고, 인간 사회와의 상호작용을 통해 인류의 미래를 변화시킬 잠재력을 지니고 있습니다. 새로운 시대의 AI는 단순한 도구가 아닌, 진정한 파트너로서의 역할을 수행할 것입니다. AI 기술의 발전을 지켜보는 것은 인류가 맞이할 새로운 도전에 대한 통찰을 제공할 것입니다.