본문 바로가기
데이터분석과 AI/데이터분석과 AI 일반

인공지능(Artificial Intelligence)이란 무엇인가? - 정의와 역사(1936~현재)

by 우공80 2023. 12. 16.
728x90

인공지능 정의와 역사

2013년 구글의 알파고로부터 전 세계적인 인공지능(Artificial Intelligence)붐이 일어났습니다. 이 때는 AI라는 새로운 시장에 진출하려는 기업들 위주로 연구와 기술 개발이 이루어졌고, 일반인 입장에서는 뜬구름 잡는 이야기였습니다. 그러나, 22년 11월 OpenAI가 발표한 ChatGPT는 순식간에 전 세계로 퍼지면서 일상 속에서 AI 시대가 다가왔습니다.
저도 그동안은 데이터 분석 위주로 공부했으나, AI에 대해 공부할 필요도 느껴져서,공부를 해보려 합니다.
오늘은 인공지능이란 무엇이고, 어떻게 발전해 왔는지 알아보겠습니다.

1. 인공지능의 정의

인공지능은 전문가들의 관점에 따라 여러가지로 정의됩니다. 여러 가지 의견이 있으나, 스튜어트 러셀과 피터노빅은 아래와 같이 4개의 영역으로 정의합니다.

1. 인간처럼 생각한다.
2. 인간처럼 행동한다.
3. 이성적으로 생각한다.
4. 이성적으로 행동한다.

여기서 “인간처럼”은 사람을 모방하고 있다는 것을 의미합니다. “이성적으로”는 인간이 이성적이지 않을 수 있다는 것을 전제로 인간보다 나은 시스템을 만든다는 것을 의미합니다. “생각한다”는 것은 인지, 추론과 같은 과정이 어떻게 작동하는지를 연구합니다. “행동한다”는 관찰된 대로 행동하는 것입니다.
인공지능을 정의하는 방법으로 ”행동한다“로 접근한 예가 튜링테스트입니다. 튜링테스트는 사람과 컴퓨터가 심사관과 문자를 주고받고, 심사관이 사람인지 컴퓨터인지를 구별하는 것입니다. 만약 심사관이 컴퓨터와 사람을 구별하지 못하면 튜링테스트를 통과합니다. 이렇게 사람이 하는 행동을 컴퓨터가 얼마나 유사하게 모방하느냐로 인공지능을 정의한 것이라고 할 수 있습니다.

2. 인공지능의 역사

2.1. 튜링머신과 튜링테스트

인공지능을 어떻게 정의하느냐에 따라 조금씩 다르겠지만, 튜링이 제안한 최초의 컴퓨터 모델인 “튜링 머신”부터 인공지능이 시작되었다고 볼 수 있습니다(1936). 이후 1950년 논문에서 튜링테스트를 발표하였습니다.

2.2. 최초의 인공신경망:퍼셉트론

딥러닝의 기초가 되는 최초의 인공신경망은 1943년 신경외과 의사인 워렌 맥컬록과 논리학자인 월터 피츠의 연구에서 시작되었습니다. 그들은 스위치처럼 온/오프하는 기능이 있는 기본적인 인공 신경을 그물처럼 연결하면, 사람의 뇌에서 동작하는 간단한 기능을 흉내 낼 수 있다는 것을 이론적으로 증명했습니다. 이 연구는 1958년 프랭크 로센블래트의 연구에 영향을 주어 퍼셉트론이 탄생하게 됩니다. 퍼셉트론은 맥컬록과 피츠의 이론에 “학습”이라는 개념을 추가하였습니다.
생물학적 신경망내에서 동일한 자극이 반복되는 것을 인공신경망에서는 가중치로 대체하였습니다.

2.3. 인공지능 용어의 등장

인공지능이라는 용어는 1956년 존 매카시가 다트머스 대학에서 연린 컨퍼런스에서 처음 사용했습니다. 존 매카시는 그 이후로도 지속적으로 인공지능 연구를 했고, 인공지능의 아버지라고 불리기도 합니다.

http://www-formal.stanford.edu/jmc/frames.html

 

 ※ 참고로 “머신러닝”은 1959년 아서 사무엘이 보드 게임인 “체커” 인공지능을 개발하고, 발표한 논문에서 처음 사용되었습니다.

2.4. 인공지능의 첫번째 겨울

1969년 마빈 민스키와 그의 동료 세이무어 페퍼트는 저서에서 로센블래트의 퍼셉트론 이론의 한계점을 수학적으로 증명합니다.
퍼셉트론은 AND 또는 OR 처럼 선형적으로 분리가능한 문제에서는 적용할 수 있지만, ‘XOR’ 문제에서는 적용할 수 없다는 것이 그 내용이었습니다. 이 발표로 인공지능에 대한 학계의 뜨거운 분위기는 순식간에 얼어붙었습니다. 학계에서 외면당하자, 자연히 연구비도 줄게 됩니다.
인공신경망뿐 아니라 정부의 막대한 지원을 받은 프로젝트들도 이렇다 할 성과를 내지 못하였고,
정부는 실질적인 효용이 없는 인공지능 분야의 지원을 중단합니다. 이런 분위기는 1980년대 초까지 지속되는데, 이것이 인공지능의 첫 번째 겨울입니다.

2.5. 인공지능의 재도약

인공지능의 겨울은 1980년 대 전문가 시스템의 도입으로 새로운 전환점을 맞습니다. 전문가시스템이란 사람의 전문적인 지식과 경험을 잘 정리해 정보를 제공하여 비전문가도 전문가 수준으로 업무를 처리할 수 있게 해주는 시스템입니다. 전문가 시스템은 (1) 지식 데이터베이스, (2) 자문과 의사결정을 생성하는 추론 엔진, (3) 사용자와 시스템 간 입력/출력 인터페이스로 구성됩니다. 전문가 시스템의 도입으로 각 기업들은 수백억 규모의 원가절감이 가능했고, 1980년 대 말까지 미국 내 500대 기업의 절반이 전문가시스템을 개발하거나 유지보수에 비용을 사용했습니다.
그리고 1980년대까지 인공지능과 컴퓨터 산업에서 변방이었던 아시아의 일본이 컴퓨터 산업에 뛰어들면서 자극 받은 미국이 다시 한번 인공지능 개발에 집중투자를 시작합니다.

인공지능의 패러다임 세가지

1. 신경모형 패러다임:연결주의라고도 불리는 이 패러다임은 인공신경망 이론을 중심으로 합니다. 인공지능 1차 겨울을 가져왔던 XOR문제를 역전파 이론으로 해결하며, 새로운 국면을 맞이했습니다. 연결주의는 2000년대 들어서며 심층신뢰망(Deep Beleif Network), 컨볼루션 신경망(Convolution Neural Network) 등 획기적인 새로운 알고리즘의 소개와 GPU를 이용한 컴퓨터 성능의 개선으로 깊은 신경망 구조를 가진 딥러닝으로 발전합니다.
2. 심볼 개념의 학습 패러다임: 앞서 인공지능의 정의에서 언급한 ”인간처럼 생각한다.“의 영역에 가깝습니다. 이 패러다임은 숫자나 통계이론 대신 논리학이나 그래프 구조를 사용하는 것으로 1970년대 중반부터 1980년대 후반까지 인공지능의 핵심적인 접근법이었으며, 전문가시스템에 많은 영향을 미쳤습니다.
3. 현대지식의 집약적 패러다임: 1970년 중반부터 시작된 이론이며, 아무 지식 없는 백지상태에서 학습을 시작하는 신경 모델을 지양하고 학습된 지식을 재활용해야 한다는 이론과 심볼 개념의 학습 패러다임에서 영역을 확장하고자 하는 움직임에서 탄생되었습니다. 이 패러다임의 대표적인 것이 1983년 로스 퀸란이 제안한 의사결정 트리알고리즘입니다.

1990년대에 들어서면서 머신러닝은 인공지능의 연구분야 중 하나로 컴퓨터의 학습 방법론에 치중했는데, 이때부터 실생활에 필요한 문제를 해결할 수 있는 실용적인 머신러닝 연구 분위기가 형성되었습니다. 이에 따라 90년대의 머신러닝 패러다임은 컴퓨터를 이용한 통계학에 가까웠습니다. 통계학 관점에서 데이터를 분석하는 데이터 마이닝과 이론적으로 많은 부분을 공유했으며, 컴퓨터의 보급과 인터넷의 발달로 데이터의 확보가 쉬워진 것도 영향을 주었습니다. 이 당시 만들어진 대표적인 알고리즘이 서포트 벡터 머신이며, 2000년대 초반까지 머신러닝의 핵심적인 알고리즘으로 사용되었습니다.

2.6. 인공지능의 두 번째 겨울

전략적 가치를 가진 대규모 연구(슈퍼컴퓨터 프로젝트)가 정부 주도로 추진되고, 산업체에서 인공지능의 실효성(전문가 시스템)이 검증되면서 인공지능의 1차 겨울은 끝을 맞이했습니다. 하지만 1980년대 말 실용성을 중시하는 정책의 시행으로 연구자금이 줄어들게 되었습니다. 그리고 산업체에서도 전문가시스템의 비용 문제 및 새로운 정보 업데이트의 복잡성으로 인해 전문가 시스템의 매력이 떨어지면서 인공지능 개발에 제동이 걸립니다. 이것이 두 번째 인공지능의 겨울이며, 1980년대 말부터 1990년대 초까지 이어집니다.

2.7. 연결주의론의 부활

퍼셉트론이 비선형성 문제를 해결하지 못한다는 이유로 연결주의가 쇠퇴하였고, 다층 신경망이론으로 해결할 수 있었으나, 효율적인 학습모델이 없었습니다.
1970년대 중반 다층 신경망의 학습모델 방법으로 역전파 알고리즘이 최초로 발표되었으나, 1차 인공지능의 겨울에 가려 빛을 보지 못하고, 8년 후에야 학술지에 공개되었습니다. 이 연구는 80년대 중반에 재발견되면서 본격적인 연결주의론의 부활로 이어집니다.

이후에도 경사감소소멸 문제 등 문제가 장단기 기억법(LSTM)으로 해결되면서 음성인식이나 자연어처리 등에 주요 알고리즘으로 적용됩니다.
또 컨볼루션 신경망(CNN) 모델은 이미지 인식 분야에 큰 발전을 가져와 오늘날까지 널리 사용되고 있습니다.

4. 마무리

인공지능의 역사를 되짚어 보면서 역사가 생각보다 길었다는 것에 놀랐습니다. 최근에 회사가 인공지능에 너무 치중하여 데이터를 소홀히 한다는 생각을 많이 하고 있었는데, 오히려 통계적으로 접근하는 것이 역사적으로는 더 최근의 일이라는 것을 알고, 제가 편견을 가지고 있었음을 깨달았습니다.(그렇다고 생각이 바뀌진 않았습니다만..)

728x90

댓글