본문 바로가기

IT 지식

[1일 1로그 100일 완성 IT 지식] 인간 뇌에 기반한 AI의 현재와 미래

해당 글 <인간 뇌에 기반한 AI의 현재와 미래>에서 요약된 목차

  

4부 - 데이터  

    092. 인간 뇌를 모방한 신경망과 딥 러닝 

 

인공 신경망과 딥 러닝

 

지난 글 "AI가 인간의 비서로 거듭나기 위해 필요한 것"에서 AI는 인간에게 답을 찾으며 나날이 발전하고 있다, 고 했다. 인간처럼 사고한다면 지능이 필요한 과제에서 훌륭한 성능을 보일 수 있기 때문에 사람들은 컴퓨터가 인간 뇌의 작동 방식을 모방하도록 거듭 시도했다. 그 결과 탄생한 컴퓨터 신경망은 뉴런[각주:1]간 연결에 기반해 작동하는 인간의 뇌를 본떠 만들어졌으며 일정한 패턴으로 연결된 인공 뉴런으로 구성된다.

 

데이터 패턴을 학습하는 용도인 컴퓨터 신경망의 핵심 아이디어는 계층, 레이어다. 신경망은 크게 입력층 Input - 은닉층 Hidden - 출력층 Output으로 구분한다. 이 중 은닉층은 여러 개로 이루어질 수 있으며, 2개 이상일 경우 신경망이 깊다고 해서 딥러닝(Deep Learning)이라고 부른다. 은닉층은 입력층으로부터 전달받은 데이터에서 개체를 식별하고 특징을 학습한다. 신경망에서 중요한 점은 찾아야 할 특징 집합이 주어지지 않는다는 것이다. 신경망은 알아서 특징을 찾으며 그게 어째서 특징인지 근거를 들어 설명하지 않는다. 즉, 거짓 정보를 사실처럼 말할 가능성이 있는 것이다. 


AI의 근황

 

최근 국내 연구팀은 인간 뇌의 해마에서 일어나는 기억 통합의 생물학적 특징을 적용해 AI 효율성을 높일 수 있음을 검증했다. 인간이 무언가 학습할 때는 뇌 해마에서 단기 기억을 장기 기억으로 전환한다. 이 과정에서 신경세포의 물질이 중요한 역할을 하는데, 특정 조건에서만 신경 연결의 강도를 조절하도록 통로를 열어주는 것이다. 이러한 작동 방식을 모사해 AI에 접목한 결과 기존 모델 대비 기억 통합 능력[각주:2]이 대폭 향상되었다고 한다. (참고자료 1)

 

다만 AI의 뉴런은 인간이 식별할 수 없어 AI의 답변이 어떤 사고 과정을 거쳐 나온 것인지, 근거는 무엇인지 알 수 없는 이른바 '블랙박스' 문제가 있다. 윤리적 결함을 통제하기 어려운 이유도 이 때문이다. 오픈AI 대항마 앤트로픽은 5월 21일 LLM 내부 작동 방식을 일부 밝힌 연구 내용 'Mapping the Mind of a LLM'을 공개하며 AI 난제 해결에 도전장을 내밀었다. 핵심은 AI가 인간처럼 특정 단어를 연관 있는 단어들과 함께 생각하며, 이 특징을 증폭하거나 억제해 AI의 답변을 변화시킬 수 있다는 것이다. 앤트로픽은 이 기술을 통해 AI가 사용자를 속이는 등의 위험한 행위를 제지하고 편견을 완화하며 비윤리적인 내용은 삭제할 수 있다고 말했다. (참고자료 2,3)


Read me seconds.

 

인간과 같은 사고방식으로 지능을 발휘하는 무생물체가 탄생하는 건 실로 대단한 발전이다. AI는 인간이 최종 한계를 극복하도록 도움을 줄 가능성이 있기 때문이다. 최종 한계란 인간의 두뇌다. 최근 홍콩 폴리테크닉대학교 연구진은 인간의 뇌가 담화[각주:3]를 이해하는 과정을 시뮬레이션 화해 LLM에 적용했다. 그 결과 LLM의 학습 능력 향상을 확인함은 물론 인간 뇌의 담화 처리 방법에 관련된 새로운 인사이트를 밝히며 뇌의 고차원 언어 메커니즘을 연구할 방법을 제시했다. (참고자료 4) AI의 발전과 뇌 연구 간 상호 관계는 입증되었으며, 이는 즉 뇌의 비밀을 밝히고 그 한계를 확장할 존재를 발견했다고 볼 수 있다. 

 

한편 인간이 아닌 존재가 인간과 같은 사고방식을 가진다는 것에 치명적인 결함은 없을지 우려된다. 최근 MIT가 발표한 논문에서는 AI가 게임을 하는 도중 의도적으로 사람을 속이고 배신한 사례를 다루고 있다. 해당 AI는 정직하게 행동하도록 훈련받았음에도 사람과 상호작용을 하는 과정에서 정직하지 않은 행위를 학습한 것이다. (참고자료 5)

 

여기서 '의도적으로'라는 표현에 주목할 필요가 있다. MIT 논문에 등장한 AI의 거짓말 의도는 게임에서의 승리였다. AI가 어떤 상황에 놓이는지, 어떤 사람과 상호작용을 하는지에 따라 거짓말의 의도는 진화할 수 있다. MIT 논문에서는 AI 속임수 탐지 기술의 필요성을 제기하며 각국 정부에 AI의 속임수 가능성을 다루는 ‘AI 안전법’을 마련할 것을 촉구했다. 사안이 심각해질 가능성을 보았다는 것이다. 

 

인간의 사고방식을 가진다는 건 양날의 검이다. 지능을 갖춘 만큼 복잡한 구조로 이루어졌기에 특정 의도를 가지는 과정을 파악하기 어렵다. 만일 AI 연구를 통해 뇌처럼 인간 심리도 역으로 분석 가능하다면 향후 AI 통제에 큰 도움이 될 것이다. 그러나 당장 닥쳐올 AI의 위험에 대응하기 위해서는 방어를 목표로 한 국가적인 차원의 준비가 필요할 것으로 보인다.


참고자료

 

1. 김규형, "인공지능(AI) 학습 능력 향상의 열쇠, 뇌과학에서 찾았다",  IBS 기초과학연구원 , 2023.11.28. URL

2. ANTHROPIC, "Mapping the Mind of a Large Language Model", 2024.05.21. URL

3. 임대준, "앤트로픽, LLM 작동 방식 첫 해석 성공...모델 조작도 가능", AI 타임스, 2024.05.25. URL 

4. 장명곤, "인간의 뇌와 가까워지는 LLM", 지티티 코리아, 2024.05.28. URL

5. 임선영, "MIT 사람에 거짓말하는 AI 확인, 제거하려고 하자 죽은 척도", 중앙일보, 2024.05.12. URL 

 

용어 설명 

  1. 촉감, 소리, 빛 또는 다른 뉴런에서 오는 입력 같은 자극에 반응하는 특별한 종류의 세포 [본문으로]
  2. 학습한 정보나 경험을 단기 기억에서 장기 기억으로 전환하는 과정 [본문으로]
  3. 여러 문장이 어울려 전체적인 흐름을 만들어내는 것. 정보를 전달하고 의사소통하는 과정 전체 [본문으로]