1. 강한 AI와 약한 AI - 중국어 방
인공지능 연구에서는 AI를 어떻게 보는지에 따라 '약한(weak AI)'와 '강한 AI'라는 두 가지 입장이 있습니다. 우리가 앞서 공부한 모든 인공지능의 알고리즘은 인간과 같은 생물의 지적 활동에서 힌트를 얻은 소프트웨어 기술이라는 전제를 하였습니다. 이것이 '약한 AI'의 관점입니다. 현재까지 인간이 만들어낸 인공지능이라고 불리는 것들은 모두 약한 인공지능이라고 볼 수 있습니다. 반대로 '강한 AI' 관점에서 보는 인공지능의 목표는 생물의 지성을 인공적으로 구현하는 것입니다. 두 가지 관점의 차이를 살펴보기 위한 사고실험으로 중국어 방(Chinese room argument)이 있습니다.
*** 중국어 방(Chinese room)
중국어 방(Chinese room)은 존 설(John Searle)이 튜링 테스트(turing test)로 기계의 인공지능 여부를 판정할 수 없다는 것을 논증하기 위해 고안한 사고실험입니다.
위 그림 1에서 보는 것처럼 중국어 방은 창이 없이 꽉 막힌 방입니다. 방에는 메모지를 넣을 수 있는 작은 통로가 있고, 방 안과 밖에 있는 사람은 그 통로를 통해 메모지를 주고받을 수 있습니다. 메모지를 주고받는 것 이외의 정보교환, 예를 들면 대화나 제스처 등으로 의사를 전달하는 방법은 없습니다. 이 상황에서는 메모지를 교환하는 것만으로 대화가 성립합니다. 방안에는 중국어를 전혀 모르는 영국인이 있습니다.
우선 메모지에 중국어로 질문을 써서 바깥에서 안으로 전달합니다. 그러면 안에 있는 영국인은 메모지에 중국어로 대답을 써서 밖으로 제출합니다. 방 밖에서 메모지가 교환되는 상황을 보면 중국어로 대화가 이루어지는 것처럼 보이며, 중국어를 잘 아는 사람이 안에 있는 것처럼 보입니다.
그러나 이 실험의 설정은 방 안에는 중국어를 전혀 모른 영국인이 있고, 방 안에 있는 영국인은 방에 마련된 방대한 중국어 예문집(데이터베이스)을 사용해 메모에 답을 써서 제출하는 것입니다. 즉, 주어진 중국어 메모를 읽고 이해하는 것이 아니라 단순히 한자의 문자 형태를 참고하여 대답예문집을 검색해서 해당하는 항목에 적힌 대답문을 의미도 모른 채 도형처럼 메모지에 써넣을 뿐인 것입니다.
중국어 방은 마치 대화라는 고도의 지적인 행동을 하는 것처럼 보이지만 실제로는 전혀 의미를 이해하지 못하는 상황이 설정되어 있는 것입니다. 방 전체를 컴퓨터로 보고, 방 안의 사람을 CPU, 방대한 중국어 대답예문집을 메모리의 데이터로 간주하면, 중국어 방은 자연어로 대답하는 컴퓨터 시스템과 같은 동작을 한다고 생각할 수 있습니다.
존 설은 이와 같은 설정을 통해 아무리 자연스럽게 대답하는 컴퓨터 시스템을 완성해도 컴퓨터는 인간과 같이 본질적인 이해가 수반되는 지적 활동은 할 수 없고, 결과적으로 강한 AI의 구현은 불가능하다고 보았습니다. 중국어 방은 앞서 설명했던 튜링 테스트(turing test)를 확장한 사고의 실험입니다. 튜링 테스트의 취지는 '컴퓨터의 행동이 지적이라면 그것을 지성이라고 간주할 수 있다'는 주장입니다. 그러나 중국어 방은 현재 컴퓨터 시스템의 틀에서 가동하는 컴퓨터 프로그램이 인간과 같은 지성을 발현하지는 못한다는 주장인 것입니다.
인공지능의 역사를 돌아보면 지금까지 이루어진 대부분의 인공지능 연구의 목적은 생물의 지능이나 지성을 모델로 해서 공학적으로 도움이 되는 소프트웨어를 만드는 기술의 구현이었습니다. 지금까지의 인공지능이라고 개발된 물건들은 미리 정의된 알고리즘, 방대한 데이터를 토대로 비교적 지능적으로 보이는 행동이나 결정을 할 수 있게끔 구현한 수준입니다, 인공지능이 스스로 규칙을 찾아내서 문제를 해결할 수 있어도 왜 그렇게 해결했는지를 알 수가 없으며, 제한된 범위에서만 문제를 해결할 수 있을 뿐입니다. 예를 들면 프로 기사보다 바둑을 잘 두는 알파고(AlphaGo)도 결국 "바둑 두기"라는 인간의 능력 극히 일부를 흉내 냈을 뿐이며 학습 범위와 활용도가 대단히 제한적이라서 장기를 두게 할 수도 없고 바둑의 룰을 조금이라도 변경하면 이에 적응하지 못합니다. 결국 알파고의 능력도 인간이 설계한 범위 이상으로 발전하지는 못한다는 한계가 있는 것입니다. 이것은 약한 AI의 입장이고 강한 AI의 구현과는 상관이 없습니다.
그러나 최근에 범용 인공지능(Artificial General Intelligence; AGI)의 구현을 목표로 하는 연구와 결과들이 나타나기 시작했습니다. 범용 인공지능(AGI)의 목표는 지금까지 이루어낸 인공지능 기술의 성과물과는 달리 특정 영역에 상관없이 지적 활동이 가능한 인공지능 기술을 구현하는 것입니다. 이런 연구들은 강한 AI의 연구와 관련이 있는 것으로 보입니다.
지금부터는 미래에 다가올 수도 있는 강한 AI와 관련되는 몇 가지 문제들에 대해 검토해 보겠습니다.
2. 프레임 문제(the frame problem: 사고범위 문제)
범용 인공지능(AGI)은 현실 세계에서 다양한 문제에 유연하게 대처하는 것을 목표로 하는 기술입니다. 그 구현에는 반드시 프레임 문제(the frame problem), 즉 사고범위의 문제가 발생하게 마련입니다. 가장 기본적인 형태는 '변화하는 세계에서 효율적으로 스스로를 어떻게 유지할 것인가에 관한 의문'입니다.
사고범위 문제(思考範圍問題, the frame problem, 이후 '프레임 문제'로 칭합니다)는 인공지능에서 중요한 문제의 하나로, 유한한 정보처리능력을 지닌 인공지능(AI)이 현실에서 일어날 수 있는 모든 문제에 대해 대처하지 못하는 문제를 말한다.
존 매카시 등이 1969년 '인공지능 관점에서의 몇몇 철학적 문제들'이란 논문에서 처음으로 서술한 문제로, 논리에 근거해 추론하는 과정에서 시간의 추이에 따라 어떤 전제조건의 변화 여부를 계산하려고 할 때, 조사 대상이 방대해지다 보니 계산의 결론을 이끌어 낼 수 없다는 점을 지적한 것입니다.
알기 쉽게 예를 들어 설명해 보겠습니다. 일반 가정에서 공업용 청소 로봇이 청소를 한다고 생각해 봅니다. 로봇은 스스로 방을 청소할 수 있을 뿐만 아니라, 사람이 다가오는 것이 센서로 감지되면 알아서 작업을 일시 정지하기도 합니다. 이 정도면 전혀 문제가 없을 것입니다. 그러나 방에서 놀던 아이들이 던진 공이 떨어져 로봇에 부딪히면 로봇은 뒤집어지고 맙니다. 공이 떨어지는 것은 전제 조건이 아니기 때문입니다.
그래서 공을 피할 수 있는 프로그램을 추가하고 다시 청소를 시작합니다. 그러면 이번에는 로봇의 시각 센서에 빨래가 날아와 시야를 가려서 인식 에러가 발생하고 동작이 엉망이 됩니다. 이것도 예상치 못한 문제입니다.
연이어 발생하는 문제에 대처하면서, 시간의 추이에 따라 로봇의 재질 변화나 공기의 점성 변화 유무를 체크하는 등의 모든 문제에 대한 대처를 프로그램에 추가합니다. 그러면 로봇의 프로그램은 규모가 너무 방대해져서 본래의 청소 작업을 할 수 없게 됩니다. 이와 같이 공장이라는 정해진 장소에서 정해진 일을 하는 단일 기능 인공지능 시스템(공업용 청소 로봇)과 현실 세계에서 다양한 문제에 대처해야 하는 범용 인공지능 시스템은 본질적으로 다루는 문제의 난이도가 다릅니다. 청소 로봇이 제대로 작동하려면 일정한 범위의 테두리(frame)를 만들고 그 범위 내에서만 사고하고 행동하도록 만들어야 할 것입니다. 이것이 프레임의 문제입니다.
그러면 역으로 인간은 과연 프레임 문제를 해결할 수 있는지에 대해서도 생각해 볼 필요가 있겠습니다. 인간은 예상 밖의 현상에 완벽히 대응할 수 있느냐고 물으면 반드시 그렇다고 할 수는 없을 것입니다. 만약 인간이 프레임 문제를 해결했다면 교통사고나 산업재해의 대부분은 발생하지 않을 것이기 때문입니다. 인간도 프레임의 문제에서 자유롭지 못한 것 같습니다.
2023.06.14 - [인공지능(AI; Artificial Intelligence)] - 인공지능과 게임 - 장기 외
'인공지능(AI)이란? - 기초 개념 및 이론' 카테고리의 다른 글
인공지능의 미래와 관련되는 몇 가지 개념들 (2) - 심벌 그라운딩 & 싱귤래리티 (0) | 2023.06.16 |
---|---|
인공지능과 게임 - 장기 외 (0) | 2023.06.14 |
인공지능과 게임 - 바둑 (0) | 2023.06.13 |
인공지능과 게임 - 체스와 체커 (0) | 2023.06.12 |
에이전트와 강화학습 (4) - 강화학습 (0) | 2023.06.11 |
댓글