Anthropic의 autodream이나, 최근 유행하는 기억 침전(memory sedimentation) 같은 접근 방식들같은 최근의 여러 memory 관련 시도 방향을 보면서 이전 대화를 기억하고 다음 대화에 활용하는 구조가 인간의 기억 체계랑 점점 닮아간다? 혹은 닮게 만드는 방법을 시도한다는 느낌이 듬. 컴퓨팅이라는, 생물학과 전혀 상관없을 것 같은 영역이 결국 인간의 뇌를 참고하고 있다니 아이러니하다고 생각했음.
자연을 따라해서 성공한 것들
Biomimicry, 자연 모방 설계는 실제로 검증된 방법론임. 가장 유명한 건 일본 신칸센 사례일 것 같다. 터널을 지날 때마다 소닉붐이 발생하는 문제를 엔지니어들이 해결 못 하다가, 물총새의 유선형 부리 구조를 따라해서 해결했다고 함. 이거 말고도 찾아보면 꽤 많은데, 벨크로도 우엉 씨앗의 갈고리 구조에서 나왔고, 상어 피부 돌기 패턴을 모방한 항균 표면 기술도 있음. 이런 걸 보면 AI도 뇌를 따라하면 더 잘 만들 수 있지 않을까 하는 유추가 자연스러움.
닮은 것처럼 보이는 것과 실제로 닮은 것
AI의 메모리 시스템이 뇌의 기억 공고화와 비슷하다는 직관은 매력적이지만, 찾아보니까 실제 메커니즘은 완전히 다르다고 한다. 뇌의 기억은 해마와 대뇌피질 사이에서 시냅스가 강화되면서 만들어지는 생물학적 과정이라는데, AI의 메모리는 그냥 텍스트를 파일로 저장하고 검색하는 엔지니어링임. 메타포가 같을 뿐이지 작동 원리는 전혀 다르다.
딱따구리가 알려준 것
딱따구리는 오랫동안 biomimicry의 대표 성공 사례로 인용되어 왔다. 초당 20회 이상 나무를 쪼아도 뇌 손상이 없으니까, 두개골의 충격 흡수 구조를 헬멧이나 전자기기 보호 설계에 적용하자는 연구들이 꽤 있었음. 근데 2022년 Current Biology에 실린 Van Wassenbergh et al.의 연구가 이 전제를 뒤집었다. 딱따구리 두개골은 충격을 흡수하는 게 아니라, 오히려 rigid hammer처럼 단단하게 작동한다는 것.
자연을 "잘못 읽고" 따라한 거다. 관찰이 틀렸으니 거기서 나온 설계도 틀린 전제 위에 서 있었던 셈. 이게 왜 중요하냐면, AI가 뇌를 따라한다는 이야기에도 같은 함정이 있을 수 있어서.
사실 AI 발전의 가장 큰 돌파구들은 뇌 모방과 거리가 멀다고 생각한다. Transformer의 attention mechanism도 뇌의 '주의' 개념에서 이름을 빌렸을 뿐 실제로는 행렬 곱셈이라고 하고, 데이터와 파라미터를 키우면 성능이 올라간다는 scaling law도 뇌과학과 무관함. 오히려 뇌를 직접 모방하려고 했던 뉴로모픽 칩이나 스파이킹 뉴럴 네트워크 같은 접근들이 아직 주류가 되지 못하고 있는걸 보면, 뇌를 따라하려고 한 쪽이 오히려 뒤처져 있는 상황.
모방이 아니라 수렴일 수 있다
그러면 AI가 결과적으로 뇌와 닮아질 가능성은 없는 걸까. 있을 수 있다고 봄. 근데 그 이유가 중요하다.
생물학에 수렴 진화라는 개념이 있다고 한다. 서로 다른 경로에서 출발해도 같은 문제를 풀다 보면 비슷한 해법에 도달하는 현상. 척추동물의 눈과 문어의 눈이 완전히 독립적으로 진화했는데 구조가 비슷하다는 게 대표적 사례라고. AI도 "정보를 효율적으로 처리하는 문제"를 계속 풀다 보면, 뇌가 이미 도달한 해법과 결과적으로 비슷해질 수는 있음.
이건 "뇌를 보고 따라해서"보다는 "같은 문제를 풀다 보니 비슷한 곳에 도달한 것"에 가까움. 비행기가 새를 따라하지 않았지만 둘 다 날개가 있는 것과 같은 이야기. 모방과 수렴은 결과가 비슷해 보여도 원인이 완전히 다르고, 다음 스텝도 달라짐.
닮았는지보다, 왜 닮아 보이는지
이 구분이 실질적으로 중요한 건 다음에 뭘 해야 하는지가 달라지기 때문임. "AI가 뇌를 따라하고 있다"는 프레임은 뇌를 더 깊이 이해하면 AI를 더 잘 만들 수 있다는 기대를 만든다. 근데 우리가 뇌를 충분히 이해하지 못하고 있다는 게 문제. 뉴런이 약 860억 개라는 건 알려져 있지만 그게 정확히 어떻게 추상적 사고를 만들어내는지는 아직 미해결이라고 한다. 모르는 걸 따라할 수는 없음. 딱따구리가 정확히 그 사례였던 것 같음.
반면에 "수렴하고 있다"는 프레임이면 방향이 달라짐. 뇌를 연구하는 게 아니라, AI가 풀고 있는 문제 자체를 더 정밀하게 정의하는 게 핵심이 됨. 같은 문제를 풀고 있으니까 결과가 닮아 보이는 거라면, 중요한 건 뇌의 구조가 아니라 문제의 구조임.
이 생각을 하다 보니까 결국 AI뿐 아니라 뭘 보든 마찬가지인 것 같다. 닮은 결과물을 보고 "따라하자"가 아니라, 같은 문제를 풀고 있는 건지를 먼저 확인하는 게 순서임. 또 문제에서 출발해야 한다는 뻔한 진리로 도달. 그게 안 되면 딱따구리 두개골로 헬멧 만드는 거랑 다를 게 없으니까. 이번에 이걸 다시 되새김질하게 된 계기.