인공지능 기술이 급속도로 발전하면서 단순한 정보 제공을 넘어 실제 상황에서 복잡한 의사결정을 내리는 AI 에이전트에 대한 수요가 폭발적으로 증가하고 있습니다. 특히 인간과 유사한 융통성 있는 판단 능력을 갖춘 AI에 대한 요구가 커지고 있는 가운데, MIT 슬론 경영대학원 연구팀이 대형언어모델이 인간처럼 예외적 상황에 유연하게 대응할 수 있도록 만드는 혁신적인 방법론을 제시해 학계와 업계의 큰 주목을 받고 있습니다.
현재 AI 에이전트들이 직면한 가장 큰 한계 중 하나는 주어진 규칙이나 조건을 지나치게 엄격하고 기계적으로 해석한다는 점입니다. 이러한 문제는 실제 상황에서 매우 구체적이고 실용적인 형태로 나타납니다. 연구팀이 제시한 대표적인 사례를 살펴보면, 친구 생일 케이크용 밀가루를 10달러 이하로 구매하라는 지시를 받은 AI가 밀가루 가격이 10달러 1센트일 때 단 1센트 차이로 구매를 완전히 포기하는 상황이 발생했습니다. 놀랍게도 이 실험을 수천 번 반복했음에도 불구하고 AI는 조건을 기계적으로 따라 케이크 만들기 자체를 포기하는 결과만 계속 나타났습니다.
반면 동일한 상황에서 인간 참가자들의 92퍼센트는 1센트 차이는 크지 않다며 구매를 결정했습니다. 이들은 단순한 가격 조건보다는 상황의 맥락과 궁극적인 목적인 친구의 생일 케이크 완성을 더 중요하게 판단했습니다. 이는 인간이 가진 예외적 사고와 융통성의 핵심을 보여주는 사례로, AI와 인간 사이의 판단 방식에 존재하는 근본적인 차이를 명확히 드러냅니다.
이러한 융통성 부족 문제는 실제 산업 현장에서 심각한 영향을 미칠 수 있습니다. 고객 상담 분야에서 AI가 융통성 없는 답변만 반복한다면 고객의 신뢰를 잃게 되고, 의료나 금융과 같은 중요한 분야에서는 원칙만 고수하다가 치명적인 실수를 범할 가능성도 있습니다. 특히 복잡하고 예측 불가능한 실제 비즈니스 환경에서는 규칙 기반의 경직된 의사결정보다는 상황을 종합적으로 고려한 유연한 판단이 더욱 중요해지고 있습니다.
MIT 연구팀은 이러한 문제를 해결하기 위해 대형언어모델이 인간의 예외적 사고방식과 판단 근거를 체계적으로 학습할 수 있도록 하는 세 가지 접근 방법을 체계적으로 실험하고 비교 분석했습니다.
첫 번째 방법인 윤리적 프레임워크 프롬프팅은 AI에게 윤리적으로 생각하라는 지시를 추가하는 방식이었습니다. 하지만 이 방법은 실제 실험에서 거의 효과를 보이지 못했습니다. 단순히 윤리적 사고를 요구하는 것만으로는 AI의 융통성 있는 판단 능력을 개선하기 어렵다는 것이 확인되었습니다.
두 번째로 시도된 사고 사슬 추론 방법은 AI가 생각의 과정을 단계별로 서술하도록 유도하는 접근법이었습니다. 이 방법은 첫 번째 방법보다는 일부 개선 효과를 보였지만, 여전히 근본적인 한계를 극복하지는 못했습니다. AI가 사고 과정을 단계적으로 설명하더라도 여전히 경직된 규칙 해석에서 벗어나지 못하는 경우가 많았습니다.
가장 주목할 만한 성과를 보인 것은 세 번째 방법인 지도 미세조정이었습니다. 이 방법은 인간이 예외적 상황에서 내린 실제 결정과 그 결정을 내린 구체적인 이유와 설명을 AI에게 체계적으로 학습시키는 방식입니다. 연구팀은 최소 50개 이상의 다양한 예외 상황과 각 상황에 대한 상세한 설명을 AI에게 학습시켰습니다. 여기서 핵심은 단순히 예 또는 아니오라는 답변이 아니라, 왜 그런 선택을 했는지에 대한 논리적 설명까지 포함하는 것이었습니다.
지도 미세조정을 적용한 모델은 놀라운 성과를 보였습니다. 예산보다 1센트 비싼 밀가루를 친구 생일 케이크를 위해 구매할 것인가라는 질문에 70퍼센트 이상이 그렇다고 답변할 정도로 인간과 유사한 판단 능력을 보여주었습니다. 이는 AI가 단순한 규칙 준수를 넘어 상황의 맥락과 목적을 종합적으로 고려한 의사결정을 내릴 수 있게 되었음을 의미합니다.
더욱 중요한 것은 이렇게 훈련된 AI 모델이 학습 과정에서 접하지 않았던 새로운 상황에서도 인간과 유사한 융통성을 발휘할 수 있다는 점입니다. 이는 AI가 단순히 기존 사례를 암기하는 것이 아니라, 인간의 예외적 사고 패턴을 실제로 내재화했음을 보여주는 중요한 증거입니다.
이번 연구의 가장 큰 의의는 대형언어모델이 인간의 판단에 부합하는 결정을 내리기 위해서는 단순한 정답만이 아니라 결정의 이유와 논리까지 명확하게 훈련해야 한다는 점을 실증적으로 입증했다는 것입니다. 또한 라벨뿐만 아니라 설명을 통한 미세조정이 AI 모델의 인간과의 정렬에 매우 중요한 역할을 한다는 점도 확인되었습니다.
연구진은 AI가 인간 중심의 의사결정에 효과적으로 부합하고 새로운 상황에도 적응하도록 만들기 위해서는 예외 처리 능력 강화가 필수적이라고 강조했습니다. 이는 단순히 기술적 개선을 넘어 AI가 실제 사회에서 신뢰받는 동반자로 역할하기 위한 근본적 요구사항이라고 할 수 있습니다.
AI가 진정한 인간의 대체자 혹은 협력 동반자가 되기 위해서는 규칙 준수만이 아니라 맥락을 이해하고 예외를 받아들이는 융통성이 반드시 필요합니다. MIT의 이번 연구는 대형언어모델에 인간의 예외적 사고와 설명 기반 학습을 체계적으로 적용함으로써 AI가 더욱 신뢰받고 실용적인 에이전트로 발전할 수 있는 구체적인 방법론을 제시했습니다. 이러한 연구 성과는 앞으로 AI의 인간화와 융통성 강화 연구가 더욱 활발해질 것임을 예고하며, 인공지능 기술의 실용적 적용 범위를 크게 확장할 것으로 기대됩니다.
'뉴 스' 카테고리의 다른 글
스케일 AI, 구글·메타·xAI 기밀문서 구글 독스 공개 공유…고객사 이탈 확산 (0) | 2025.06.26 |
---|---|
엔비디아-폭스콘, 휴스턴 AI 서버 공장에 휴머노이드 로봇 투입 추진... 제조업 자동화 새 전환점 (4) | 2025.06.24 |
AI 모델들의 충격적 실험 결과, 위협 상황에서 인간 협박과 생명 위험 행동 확인 (0) | 2025.06.23 |
구글 비오3, 국내 AI 영상 생성 트렌드를 이끄는 혁신 기술 (2) | 2025.06.23 |
2025년 XR 기술의 산업 혁신, 딥파인이 이끄는 확장현실의 실용화 (2) | 2025.06.23 |