AI의 간략한 역사

시작

정보이론의 창시자 Claude Shannon과 유일하게 노벨 경제학상과 튜링상 동시 수상자인 Herb Simon등이 1956년 미국 다트머스 대학에 모였다.  이들은 젋은 연구원인 John MaCarthy가 모임에 초청한 것으로 기계가 언어와 개념을 이용해서 인간만이 풀수 있었던 문제를 해결하는 것에 대해 토론하기 위한 것이었다. 이것이 최초의 인공지능에 대한 학술모임이었다. 

AI연구에는 두가지 접근이 있었는데, 첫째는 로직으로 해답을 도출하려는 방식이고 두번째로 확률을 이용하는 방법이다. 

1980대까지 로직을 이용하는 방식이 널리 사용되고 있었는데 시스템의 유연성과 확장성에 한계가 있었다. 

신경망

1940년대에 이미 하나의 뇌신경이 다른 뇌신경으로 신호를 전달하는 인간뇌의 작동방식에 대한 이해가 이뤄졌는데 위에서 언급한 다트머스 모임에 참석자 중 한명인 Marvin Minsky가 최초의 인공신경 모델을 만들었다. 

인공신경망은 어떤 룰을 근거해서 프로그래밍 된 것이 아니라 수많은 예제를 이용한 반복 학습을 통해서 신경간 연결강도 (weights) 가 계속 조정되어 궁극적으로 높은 확률로 올바른 해답을 내놓게 되는 방식이다. 신경망을 계속 늘려감으로써 더 높은 수준의 문제해결이 가능해졌지만 동시에 시스템이 더욱 느려졌다. 

GPU

2009년 CPU대신 GPU를 이용하면 훨씬 빠른 속도로 신경망 시스템을 운영할 수 있음을 스탠포트 대학에서 증명했다. 이때부터 빠른 하드웨어와 개선된 알로리즘으로 더 성능좋은 신경망 시스템이 가능해졌다. 

Deep Learning

2012년 ImageNet Challenge를 통해 Deep Learning의 성능이 확인된다. Geoff Hinton이 이끄는 팀이 이미지 인식율 85%를 달성해냈다. 

2015년까지 모든 이미지 인식에는 Deep Learning이 사용되었고 인식율은 인간보다 나은 96%에 달했다. Deep Learning은 음성인식, 안면인식과 번역등에 사용되었다. 

인터넷에서 제공된 거대한 데이터로 훈련된 Deep Learning은 아미존  Alexa를 비롯한 많은 시스템에 인공지능이란 이름으로 적용되었다. 

Transformer

2017년 트렌스포머가 등장하여 인공지능을 한단계 도약시켰다. 트렌스포터는 Self-supervised learning을 가능하게 했다. 스스로 문제를 내고 스스로 푸는 방식으로 인터넷에서 수집된 수십억개의 단어를 이용한 훈련이 가능해졌다. 

2019 OpenAI가 GPT-2를 출시하면서 Large Language Models가 더 많은 대중의 관심을 끌기 시작했다. 대규모 언어로 훈련된 이런 모델들은 언어적 능력뿐 아니라 수리적, 프로그래밍 능력까지 갖추게 되었다. 

ChatGPT

2022년 OpenAI가 챗봇의 형태로 GPT-3.5를 발표했다. GPT-3.5의 인기는 폭발적이었다. Stable Diffusion이나 DALL-E등의 생성형 모델들도 출시되었다. 이들은 문자를 이미지로 전환하는 Diffusion기술을 선보였다. 

OpenAI의 ChatGPT, 구글의 Gemini 그리고 OpenAI 연구원 출신이 만든 Anthropic사의 Claude 등은 말그대로 인공지능이라 불릴만한 제품을 만들어냈다. 

 

Reference: 

A short history of AI (economist.com)

 

 

 

 

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다