검색
-
-
[퓨처 Eyes(82)] 뇌 학습의 새로운 비밀⋯시냅스별 다른 규칙 따른다
- 우리는 새로운 것을 어떻게 배울까? 최신 유행하는 K-팝 가사와 안무, 새로운 직장에서의 업무, SNS에서 핫한 카페나 레스토랑 가는 길 같은 정보는 어떻게 뇌에 인코딩될까? 이에 대한 넓은 의미의 답은 뇌가 새로운 정보를 수용하기 위해 적응 과정을 거친다는 것이다. 새로운 행동을 따르거나 새로 도입된 정보를 기억하기 위해 뇌의 회로는 변화한다. 이러한 변화는 수조 개의 시냅스, 즉 뉴런들이 서로 신호를 주고받는 연결 지점에서 세심하게 조율된 과정을 통해 일어난다. 새로운 정보는 특정 시냅스를 강화하는 반면 다른 시냅스는 약화시키는데, 이를 시냅스 가소성이라고 불리며 학습과 기억의 핵심 기전으로 여겨진다. 시냅스 가소성에는 시냅스가 강해지는 장기 강화(LTP, Long-Term Potentiation)와 약해지는 장기 억제(LTD, Long-Term Depression)가 대표적이다. 미국 UC샌디에이고대학 연구팀이 뇌가 새로운 정보를 학습할 때 신경세포(뉴런)의 연결 지점인 시냅스(synapse)가 기존 학설과 달리 위치에 따라 다양한 규칙을 적용하며 변화한다는 사실을 과학적으로 규명했다고 사이테크 데일리가 최근 보도했다. 미국 국립보건원(NIH)과 미국 국립과학재단(NSF) 등의 지원을 받은 이 연구는 뇌 학습 및 기억의 핵심 기전인 시냅스 가소성(synaptic plasticity)에 대한 이해를 근본적으로 변화시키는 발견이다. 차세대 인공지능(AI) 시스템 개발과 알츠하이머병 등 다양한 뇌 질환 치료 연구에 중요한 통찰을 제공할 전망이다. 과거 신경과학계는 뇌의 한 영역 또는 한 뉴런 안에서 시냅스 변화가 동일한 규칙에 따라 일어난다고 생각했다. 즉, 뉴런 전체가 같은 방식으로 정보를 저장하고 처리한다고 여겨졌다. 하지만 실제 뇌가 복잡한 정보를 매우 효율적으로 학습하고 기억하는 과정에서 어떤 시냅스가 변화해야 하는지, 어떤 규칙이 적용되는지에 대한 세부 원리는 명확하지 않았다. 특히 개별 시냅스가 전체 행동이나 결과에 대해 어떻게 '책임'을 배분받고 변화하는지 설명하기 어렵다는 난제인 '크레딧 할당 문제(credit assignment problem)'가 남아있었다. UC 샌디에이고 연구팀, 생쥐 뇌의 뉴런·시냅스 실시간 추적 UC샌디에이고 신경생물학자 윌리엄 '제이크' 라이트(William 'Jake' Wright), 네이선 헤드릭(Nathan Hedrick), 코미야마 타카키(Takaki Komiyama) 박사 연구팀은 국립보건원과 국립과학재단, 글로벌 브레인 시범상 사이먼스 협력, 에릭 및 웬디 슈미트 과학 분야 AI 펠로우십 등의 주요 재정 지원을 받아 수년간 이 연구를 수행했다. 연구 결과는 4월 17일 학술지 '사이언스(Science)'에 게재됐다. 연구팀은 생쥐(mouse)를 실험 모델로 사용했다. 생쥐는 인간과 유사한 뇌 구조와 학습 능력을 가지고 있어 뇌과학 연구에 널리 활용된다. 연구팀은 2광자 현미경이라는 첨단 이미징 기술을 이용해 살아있는 생쥐의 뇌 속 개별 뉴런과 시냅스의 변화를 실시간으로 관찰했다. 이 기술은 뇌 깊숙한 곳까지 고해상도로 이미지를 얻을 수 있어 기존의 한계를 극복할 수 있었다. 연구 과정에서 생쥐에게 새로운 행동 과제(예: 특정 신호에 반응해 레버를 누르기 등)를 학습시키는 동안, 뇌의 특정 영역(대뇌 피질)에서 뉴런의 가지돌기(덴드라이트, dendrite)와 그 위의 시냅스(돌기, spine)를 실시간으로 추적했다. 시냅스의 크기, 모양, 신호 강도 변화 등을 시간에 따라 정밀하게 측정했다. 시냅스에서 획기적인 핵심 발견 이전에는 불가능했던 수준으로 개별 시냅스를 시각화한 결과, 뉴런이 학습 과정 중 기존 생각에서 가정했던 것처럼 하나의 규칙 세트만 따르지 않는다는 사실이 드러났다. 데이터는 개별 뉴런이 여러 규칙을 따르며, 특히 가지돌기의 서로 다른 구역에 위치한 시냅스가 서로 다른 학습 규칙(장기 강화 또는 장기 억제 등)에 따라 변화함을 보여줬다. 이는 뉴런 하나가 여러 '연산 모듈'을 병렬로 갖는다는 의미다. 뇌는 수많은 시냅스가 각자 '지역 정보'만 가지고 변화하지만, 전체적으로는 복잡한 행동을 학습한다. 연구팀은 뉴런이 서로 다른 규칙을 동시에 적용함으로써, 각 시냅스가 자신의 역할(크레딧)을 효율적으로 배분받아 변화할 수 있음을 확인하며 신경과학계의 난제였던 '크레딧 할당 문제'에 대한 새로운 해법을 제시했다. 연구진은 시냅스가 실제로 변화하는 순간, 그 주변 환경(자극의 종류, 시간, 위치 등)을 모두 기록하며 시냅스 변화의 '규칙성'과 '다양성'을 동시에 입증할 수 있었다. 뇌 학습 연구의 파급 효과와 의미 연구 책임 저자인 코미야마 타카키 교수는 "이번 연구는 뇌가 학습 과정에서 복잡한 신호를 어떻게 효율적으로 처리하는지, 그리고 그 과정에서 각 시냅스가 어떤 역할을 하는지를 근본적으로 새롭게 이해하게 해준다"며 "앞으로 뇌 질환 치료와 인공지능 발전에 큰 영향을 미칠 것으로 기대한다"고 강조했다. 그는 신경생물학 및 신경과학 부서의 교수이며, 할르지오글루 데이터 과학 연구소와 카블리 뇌-마음 연구소에서도 재직 중이다. 이번 발견은 인공지능과 뇌와 유사한 신경망 개발에 중요한 시사점을 던진다. 현재의 인공 신경망(딥러닝 등)은 보통 모든 노드(뉴런)가 동일한 학습 규칙을 따르지만, 이 연구 결과는 하나의 인공 뉴런에 여러 학습 규칙을 적용하는 새로운 설계 방식이 가능함을 시사한다. 이는 더 유연하고 효율적인 인공지능(AI), 즉 인간 뇌와 유사한 '적응형' 인공지능 개발로 이어질 전망이다. 건강 및 행동 측면에서 이번 발견은 중독, 외상 후 스트레스 장애(PTSD), 알츠하이머병은 물론 자폐증 등 다양한 신경 발달 장애 치료에 새로운 접근 방식을 제시할 수 있다. 알츠하이머병 등 다양한 뇌 질환은 시냅스 가소성의 이상과 밀접한 관련이 있는데, 이번 연구는 질환별로 영향을 받는 시냅스 규칙이 다를 수 있음을 시사하며, 특정 시냅스 영역만을 타겟으로 하는 맞춤형 치료법 개발에 새로운 길을 제시한다. 연구의 제1 저자인 라이트 박사는 "시냅스 가소성은 일반적으로 뇌 내에서 균일하다고 여겨졌지만, 우리 연구는 학습 중 시냅스가 어떻게 수정되는지 더 명확히 이해하게 해주고, 많은 뇌 질환이 어떤 형태의 시냅스 기능 장애를 포함하고 있기 때문에 건강에 잠재적으로 중요한 영향을 미칠 수 있다"고 덧붙였다. 그는 "이번 연구는 뇌가 정상적으로 작동하는 방식을 이해하는 잠재적 기초를 마련하며, 이는 다양한 질병에서 무엇이 잘못되는지를 더 잘 이해하는 데 도움이 될 것"이라고 말했다. 뉴련 관련 향후 연구 방향과 전망 이 새로운 발견은 이제 연구자들을 뉴런이 왜, 어떻게 여러 규칙을 동시에 사용할 수 있는지, 여러 규칙 사용이 에너지 효율성이나 정보 저장 용량 극대화 등 어떤 이점을 주는지, 그리고 질환별 시냅스 규칙 차이는 무엇인지 등 근본 원리에 대한 심층 후속 연구로 이끌고 있다. 이 연구는 뇌가 학습할 때 '한 개의 뉴런=하나의 규칙'이라는 기존 통념을 깨고, '한개의 뉴런=여러 규칙 병행'이라는 새로운 패러다임을 제시했다. 이는 뇌과학, 의학, 인공지능 등 다양한 분야에 혁신적 영감을 주는 발견으로, 앞으로 관련 연구와 기술 발전에 중요한 이정표가 될 것이다.
-
- 포커스온
-
[퓨처 Eyes(82)] 뇌 학습의 새로운 비밀⋯시냅스별 다른 규칙 따른다
-
-
[신소재 신기술(168)] "쌀알만 한 뇌, 우주만큼 정밀하게 해부됐다"
- 쌀알만 한 생쥐 뇌 조직의 정밀 해부를 통해 신경세포 8만4000개와 5억 개의 시냅스, 5.4㎞에 달하는 신경망이 드러났다. 9년에 걸쳐 진행된 국제 공동 연구가 포유류 뇌를 가장 정밀하게 해부한 커넥톰을 완성 한 것이다. 인공지능(AI) 기술과 인간의 손길이 결합된 이번 프로젝트는 뇌과학의 디지털 전환을 본격화하는 전환점이 될 전망이다. 미국 프린스턴대학교, 스탠퍼드대학교, 텍사스 베일러 의과대학, 시애틀 앨런 뇌과학연구소 등 22개 연구기관 소속 150명 이상이 참여한 국제 공동연구팀은 생쥐 뇌의 1㎣도 채 되지 않는 부위에서 8만4000개의 신경세포와 5억 개 이상의 시냅스 연결, 5.4㎞ 길이의 신경망 구조를 밝혀냈다. 이는 현재까지 포유류 뇌를 대상으로 한 가장 정밀하고 방대한 커넥톰(connectome·신경연결지도)으로 기록됐다. 연구팀은 뇌 지도를 만들면서 수만 개의 개별적인 나무 모양의 뉴런을 디지털 방식으로 풀어내고, 각 뉴런의 고유한 가지 시스템을 추적한 다음, 이를 하나하나 재구성해 광대한 회로 네트워크를 만들었다. 이를 커넥톰이라고 부른다. 프린스턴 대학교는 이번 연구는 9년간 진행됐으며 22개 기관의 150명 이상의 연구자들이 이 프로젝트에 참여했다고 밝혔다. 이번 연구는 미국 베일러 의과대학에서 시작됐다. 과학자들은 특수 현미경을 사용해 생쥐가 러닝머신 위에서 10초 동안 베이스점프, 루지 등 다양한 익스트림 스포츠, 애니메이션, 영화 매트릭스, 매드맥스: 분노의 도로 등의 비디오 영상을 보는 동안 쥐의 시각 피질 1㎣(세제곱밀리미터) 부분의 뇌 활동을 기록하는 방식으로 진행됐다. 이후 앨런 연구소 연구팀은 생쥐 뇌를 2만8000개 층으로 절단하고, 인공지능(AI) 분석과 인간의 수작업 검수를 결합해 신경세포 간 연결망을 일일이 추적해 재구성했다. 연구팀이 진행한 코티컬 네트워크(Cortical Networks)의 머신 인텔리전스인 MICrONS 프로젝트는 지금까지 포유류 뇌의 가장 자세한 배선도를 구축했으며, 이 배선도는 온라인에서 무료로 이용할 수 있다. 이번 연구를 총괄한 데이비드 마코위츠 박사는 "인간 게놈 프로젝트에 비유되는 신경과학의 분수령"이라고 평가했다. 이어 프린스턴 대학교의 또 다른 연구팀은 인공지능과 머신러닝을 사용하여 세포와 연결망을 3D 입체로 재구성했다. 뇌 활동 기록과 함께, 이 입체에는 5억 2300만 개의 시냅스(20만 개의 세포를 연결하는 연결점)와 4km 길이의 축삭(다른 세포로 뻗어 나가는 가지)이 포함되어 있다. 스탠퍼드대학교 신경과학자 안드레아스 톨리아스 교수는 "이 연구는 구조와 기능을 동시에 기록한 최초의 사례"라며 "우리가 세계를 인식하고 감정을 느끼고 결정을 내리는 뇌의 생물학적 구조를 데이터로 포착한 것"이라고 강조했다. 연구팀은 이를 통해 단순한 신경 배치도뿐 아니라, 각 신경세포 간 상호작용과 정보 전달 방식까지 시각화해냈다. 과거 곤충의 뇌를 대상으로 한 연결지도는 존재했지만, 이번처럼 포유류 뇌의 고도 복잡성을 구현한 사례는 처음이다. 프린스턴대 신경과학자 세바스찬 승 교수는 "이번 연구를 통해 구현한 커넥톰(connectome)은 뇌과학의 디지털 전환을 여는 출발점"이라며 "이 기술은 신경 연결의 이상 패턴을 식별하고, 치매 등 뇌 질환의 원인을 규명하는 데 획기적인 전기를 마련할 것"이라고 말했다. 이 연구는 뇌의 새로운 특성, 유형, 조직 및 기능 원리, 세포 분류의 새로운 방식을 밝혀냈다. 특히 뇌 안의 새로운 억제 원리를 발견한 것은 이번 연구의 가장 큰 성과로 평가된다. 과학자들은 이전에 신경 활동을 억제하는 억제 세포를 다른 세포의 활동을 약화시키는 단순한 힘으로 생각했다. 반면 연구팀은 훨씬 더 정교한 수준의 의사소통을 발견했다. 억제 세포는 무작위로 행동하는 것이 아니라, 어떤 흥분 세포를 표적으로 삼을지 매우 선택적으로 결정하여 네트워크 전체에 걸친 조정 및 협력 시스템을 구축한다. 어떤 억제 세포는 함께 작용하여 여러 흥분 세포를 억제하는 반면, 어떤 억제 세포는 특정 유형의 세포만을 표적으로 삼아 더욱 정밀하게 작용한다. 뇌의 형태와 기능을 이해하고, 뉴런 간의 세부적인 연결을 전례 없는 규모로 분석할 수 있는 능력은 뇌와 지능 연구에 새로운 가능성을 열어준다. 또한 알츠하이머병, 파킨슨병, 자폐증, 조현병과 같이 신경 전달 장애를 수반하는 질환에도 영향을 미칠 수 있다. 공개된 이번 데이터는 인공지능 연구는 물론, 뇌 질환 조기 진단, 치료법 개발 등 다양한 분야에 활용될 수 있다. 특히 인간의 뇌가 정보 처리 속도나 효율성 측면에서 현존하는 어떤 AI보다도 앞선 이유를 설명하는 데 중요한 단서를 제공할 것으로 기대된다. 앨런 연구소 부연구원인 누노 다 코스타 박사는 "고장 난 라디오가 있는데 회로도를 가지고 있다면 수리하기가 더 수월할 것"이라고 이번 연구의 성과를 비유했다. 그는 "우리는 이 모래알(뇌 세포)에 대한 일종의 구글 지도 또는 청사진을 제시하고 있다. 앞으로 이를 활용하여 건강한 쥐의 뇌 배선과 질병 모델의 뇌 배선을 비교할 수 있을 것이라고 강조했다. 이 연구 결과는 과학저널 '네이처(Nature)'에 일련의 논문으로 발표됐다.
-
- IT/바이오
-
[신소재 신기술(168)] "쌀알만 한 뇌, 우주만큼 정밀하게 해부됐다"
-
-
[신소재 신기술(166)] 쌀알 크기 AI 칩, 소형 드론의 비행 범위와 성능 혁신 기대
- 인간의 뇌를 모방해 전력 사용량을 획기적으로 줄인 쌀알 크기의 소형 인공지능(AI) 칩이 개발됐다. 인공지능(AI) 기술은 방대한 연산 능력을 요구하며, 엄청난 양의 에너지를 필요로 한다. 반면 놀라울 정도로 강력한 컴퓨터인 인간의 뇌는 에너지를 거의 소모하지 않는다. 배터리 전원으로 작동하는 소형 드론은 에너지 제약으로 인해 AI 기능을 구현하는 데 어려움을 겪어왔다. 이러한 한계로 인해 소형 드론이 자율 비행, 물체 인식, 복잡한 의사 결정 등의 고도화된 기능을 수행하는 데 제약이 따랐다. 하지만 최근 미국 텍사스 A&M 대학교 연구팀이 이러한 난제를 해결할 혁신적인 접근 방식을 제시했다. 연구진은 인간 뇌의 작동 방식을 모방한 '뉴로모픽 컴퓨팅(Neuromorphic Computing)' 기술을 기반으로 쌀알 크기의 뉴런과 비슷한 나노 디바이스라는 초소형 AI 칩을 개발하고 있다고 밝혔다. 이 연구는 국제 학술지 '사이언스 어드밴시스(Science Advances)에 게재됐다. 해당 연구에 대해서는 과학 기술 전문매체 인터레스팅 엔지니어링, 퓨처리스트 등 다수 외신이 전했다. 뉴로모픽 컴퓨팅은 생물학적 뉴런의 작동 방식을 모방하여 정보를 효율적으로 처리하는 시스템이다. 이 시스템은 필요할 때만 활성화되어 에너지를 소비하는 방식으로, 기존 AI 기술의 고질적인 문제였던 전력 소모를 획기적으로 줄일 수 있다. 연구팀은 얇은 고분자 필름을 이용하여 인공 뉴런을 개발하는 데 주력하고 있다. 이 필름은 생물학적 뉴런의 전기적 신호 전달 및 정보 처리 방식을 유사하게 구현할 수 있는 것으로 알려졌다. 또한, 연구진은 이러한 인공 시스템 내에서 학습 및 의사 결정과 같은 핵심 기능을 재현하는 데에도 힘쓰고 있다. 이는 뇌의 에너지 효율성을 모방하여 필요시에만 정보를 처리하고 전송하는 인공 뉴런을 설계함으로써 가능해진다. 이번 연구를 이끄는 텍사스 A&M 대학교 전기 및 컴퓨터 공학과 조교수인 이수인(Suin Yi) 박사는 “이번 프로젝트를 통해 무인 항공기는 기계적으로 유연하고 뇌의 뉴런처럼 스파이크 및 진동할 수 있는 전도성 고분자 재료 시스템 통합을 통해 더욱 지능화될 수 있을 것”이라고 말했다. 이 박사는 또한 “궁극적으로 인공 시냅스와 함께 이러한 유연한 인공 뉴런은 지능형 소형 드론을 구현할 수 있는 완전한 뉴로모픽 컴퓨팅 시스템을 구성할 수 있을 것”이라고 덧붙였다. '슈퍼 튜링 AI'란 무엇인가? 이수인 박사는 인간의 뇌와 더 비슷하게 작동하는 '슈퍼 튜링 AI'를 개발한 연구진에 속해있다. 이 새로운 AI는 현재 시스템처럼 각 프로세스를 분리한 다음 엄청난 양의 데이터를 이전하는 대신 특정 프로세스를 통합한다. 시스템 이름의 튜링은 AI 선구자 앨런 튜링에서 따온 것이다. 오픈 AI의 챗GPT와 같은 대규모 언어모델(LLM)을 포함한 오늘날의 AI 시스템은 엄청난 컴퓨팅 능력이 필요하며, 막대한 양의 전기를 소비하는 광대한 데이터 센터에 보관된다. 이 바ㅣ사는 "이러한 데이터 센터는 기가와트 단위로 전력을 소비하는 반면우리의 뇌는 20와트를 소비한다고 설명했다. 막대한 에너지를 소비하는 데이터 선테는 현재의 컴퓨팅 방법으로 지속 가능하지 않고, 탄ㅁ소 발자국을 감안할 때 환경 문제도 야기한다. 이에 연구팀은 강력한 컴퓨터 기능을 하면서도 에너지는 거의 소비하지 않는 인간 뇌의 신경 과정에 주목했다. 뇌에서 학습과 기억의 기능은 분리되지 않고 통합되어 있다. 학습과 기억은 신호가 전달되는 "시냅스"라는 뉴런 간의 연결에 의존한다. 학습은 "시냅스 가소성"이라는 과정을 통해 시냅스 연결을 강화하거나 약화시켜 새로운 회로를 형성하고 기존 회로를 변경하여 정보를 저장하고 검색한다. 대조적으로, 현재의 컴퓨팅 시스템에서는 훈련(AI가 가르쳐지는 방식)과 메모리(데이터 저장)가 컴퓨터 하드웨어 내의 두 개의 별도 장소에서 이루어진다. 슈퍼 튜링 AI는 이러한 효율성 격차를 메우기 때문에 혁신적입니다. 따라서 컴퓨터는 하드웨어의 한 부분에서 다른 부분으로 엄청난 양의 데이터를 마이그레이션할 필요가 없다. 드론 성능 향상 및 다양한 분야 활용 기대 연구진의 계획대로 쌀알 크기의 차세대 AI 칩이 개발된다면, 소형 드론은 자체 배터리 용량 내에서 복잡한 의사 결정, 물체 식별, 자율 항법, 주변 환경 인식 등의 고난도 작업을 수행할 수 있게 된다. 이 박사는 "소형 드론은 엔진이 없어 에너지 예산이 매우 적다. 그렇기 때문에 배터리 구동 드론이 AI 없이 비행하는 시간과 동일하게 AI를 탑재하고도 비행할 수 있도록 디지털 컴퓨터를 뛰어넘는 뉴로모픽 컴퓨팅 시스템과 같은 획기적인 기술이 필요한 것"이라고 강조했다. 그는 "챗GPT와 같은 현대 AI는 비용이 너무 많이 든다. 우리는 지속 가능한 AI를 만들 것이다"라면서 "슈퍼 튜링 AI는 AI가 구축되고 사용되는 방식을 재편해 AI가 계속 발전함에 따라 사람과 지구 모두에게 이로운 방식으로 발전할 수 있도록 보장할 수 있다"고 덧붙였다. 이번 연구는 소형 드론의 활용 가능성을 크게 확장할 것으로 기대된다. 에너지 효율적인 AI 기반 드론은 감시, 구조 작전, 환경 연구 등 다양한 분야에서 복잡한 임무를 수행하는 데 활용될 수 있을 전망이다.
-
- IT/바이오
-
[신소재 신기술(166)] 쌀알 크기 AI 칩, 소형 드론의 비행 범위와 성능 혁신 기대
-
-
인간 뇌 1㎣, 150억개 연결까지⋯초고해상도 뇌지도 나왔다
- 과학자들이 고해상도 전자현미경을 사용해 인간 뇌조직을 이미지화해 나노 스케일의 3D 지도를 제작했다. 미국 하버드대학교와 구글 연구팀이 인간 뇌 1㎣(1입방밀리미터)의 세포 연결까지 보여주는 초고해상도 뇌지도를 제작했다고 하버드 매거진과 사이테크 데일리 등 다수 외신이 전했다. 이 지도는 뇌의 복잡성을 보여주고, 뇌 기능 이해를 위한 새로운 가능성을 제시한다. 미국 국립보건원(NIH)이 자금을 지원한 이 연구 결과는 '사이언스' 저널에 게재됐다. 하버드 대학교의 제프 리히트만 박사와 구글 리서치의 비렌 자인 박사가 이끄는 연구팀은 전자 현미경(EM)을 사용해 입방밀리미터(1㎣) 크기의 인간 뇌 조직 조각을 고해상도로 이미지화했다. 이 뇌 조직은 뇌전증 수술의 일환으로 환자의 대뇌 피질에서 제거한 것이다. 하버드 매거진에 따르면 리피트만 박사의 연구팀은 10년 동안 대뇌 피질 1㎣를 분석해 인간 뇌의 연결에 대한 최초의 정밀 지도를 제작했다. 뇌 조직 분석 결과 매우 아름답고 목적을 알 수 없는 수 많은 복잡한 구조가 밝혀졌다. 신경 섬유가 다른 세포와 연결되는 경로에 정착하기 전에 마치 제자리에서 맴돌고 있는 것처럼 소용돌이 모양으로 성장하는 모습, 정반대 방향이 두 개의 수용체(수상 돌기)만을 가리키고 연결되지 않은 백질 기저층의 신경 섬유와 연결된 새로운 종류의 뉴런, 신경 섬유가 단일 세포에 50개 이상 연결되는 드문 사례인 다중 시냅스 연결 등이 그것이다. 이들의 관찰은 뇌가 어떻게 연결 되었는지에 대한 가정을 뒤집었다. 리히트만은 "많은 사람들이 과학이 문제를 해결하고, 답을 찾고, 치료할 수 있기를 기대하지만 이 경우에는 단순히 자연을 설명하는 것만으로도 뇌가 '우리가 생각하는 것보다 더 복잡하다'는 것이 밝혀졌다"고 말했다. 연구팀은 먼저 조직을 다이아몬드 칼을 사용해 인간 머리카락의 1천분의 1보다 얇은 5000개 이상의 슬라이스 또는 섹션으로 자른 다음 각 섹션을 EM으로 이미지화했다. 그 결과 약 1.4페타바이트, 즉 1400테라바이트의 데이터가 생성됐다. 팀은 뇌 조직을 5000개 이상의 얇은 조각으로 나누어 각 조각을 전자현미경으로 촬영했다. 이렇게 얻은 1.4페타바이트(PB, 1400테라바이트)의 데이터를 기반으로 3차원 뇌지도를 만들었다. 뇌지도는 5만 7000개 이상의 세포와 약 1억 5000만 개의 시냅스(신경세포 연결 부위)를 포함하며, 이전에는 볼 수 없었던 뇌 구조 세부 정보를 제공한다. 바렌 제인이 이끄는 구굴의 연구팀은 각 슬라이스 내의 객체를 감지하고 일르 연결해 3차원 공간을 렌더링하는 새로운 신경망 기술을 개발했다. 리히트만은 '플러드 필링 신경망' 기술을 사용해 세포, 신경 섬유 및 혈관을 색칠했으며 "기본적으로 여러 섹션에 걸쳐 이러한 객체에 페인트를 붓는 격"이라고 설명했다. 가장 흔한 신경교세포는 신경교세포에 구조적인 지원과 전기적 절연을 제공하는 과립세포였다. 1㎣ 샘플에는 약 230mm의 혈관 세포도 포함되어 있었다. 특히, 연구팀은 재구성을 통해 뇌의 가장 깊은 층에 있는 삼각형 세포들이 서로 마주 보는 두 가지 방향으로 배열되어 있음을 발견했다. 이러한 배열의 의미는 아직 밝혀지지 않았지만, 뇌 기능 이해에 중요한 단서가 될 수 있다. 이번 연구 결과는 뇌 연결체학(뇌 세포 간 연결을 종합적으로 분석하는 학문)의 중요성을 보여주고, 뇌 기능 연구에 새로운 자원을 제공한다. 연구팀은 데이터셋과 분석 도구를 공개하여 다른 연구자들도 이를 활용할 수 있도록 했다. 미국 국립보건원(NIH) BRAIN Initiative 책임자인 존 응아이 박사는 "이번 연구는 신경과학자, 컴퓨터 과학자, 엔지니어 간의 협력이 뇌 기능 이해를 위한 완전한 지도 구축에 얼마나 중요한지를 보여준다"고 말했다.
-
- IT/바이오
-
인간 뇌 1㎣, 150억개 연결까지⋯초고해상도 뇌지도 나왔다
-
-
[퓨처 Eyes(40)] AI PC, 혁신인가 과장인가?…차세대 컴퓨팅의 가능성과 한계
- 생성형 인공지능(AI) 기술의 급속한 발전에 따라 차세대 컴퓨터로 불리는 AI PC에 업계의 관심이 쏠린다. 지난 2022년 메타버스에 이어 지난해에는 양자 컴퓨팅이 큰 주목을 받았다면, 올해는 AI가 전 산업 생태계를 휩쓸고 있다. 최근 AI는 기술 분야의 핵심 화두로 떠올랐으며, PC 업계는 이를 활용한 제품 개발에 열을 올리고 있다. 그렇다면 AI PC는 무엇일까? AI PC는 인공지능(AI) 작업에 특화된 개인용 컴퓨터다. 기존 PC와 마찬가지로 CPU와 GPU를 갖추고 있지만, AI 작업 가속화를 위한 NPU(신경망 처리 장치)가 추가로 탑재되어 있다. 미국 기술 전문매체 톰스 하드웨어에 따르면 AI PC에 대한 명확한 정의는 아직 없다. 마이크로소프트(MS)는 최신 NPU, CPU, GPU를 포함하고 마이크로소프트 코파일럿(Microsoft Copilot) 및 코파일럿 키를 탑재한 PC를 AI PC로 정의한다. 그러나 이 정의는 AMD와 인텔의 NPU와 코파일럿을 탑재했지만 코파일럿 키가 없는 일부 PC를 제외한다. 또한, 코파일럿 키는 단순히 코파일럿 실행 단축키 역할을 하므로 필수적인 요소는 아니라고 톰스 하드웨어는 전한다. 인텔과 AMD는 AI PC를 CPU, GPU, NPU를 통해 AI 작업을 최적으로 실행하도록 설계된 PC로 정의한다. 현재 대부분의 노트북 제조사는 인텔, AMD 또는 퀄컴 프로세서를 탑재한 AI PC를 생산한다. 그렇다면 NPU란 무엇일까? NPU는 '신경망 처리 장치(Neural Processing Unit)'의 약자로, AI 작업 부하를 위해 특별히 설계된 병렬 컴퓨팅 전문 프로세서다. NPU는 신경망, 딥러닝, 머신러닝 등 AI 연산에 특화된 프로세서로, AI 작업을 더욱 빠르고 효율적으로 처리할 수 있게 해준다. 선성전자는 인체가 신경계를 통해 자극을 감지하고 신호를 전달하며 적절한 판단을 내리고 자극에 반응하는 것처럼 NPU는 인간의 두뇌와 유사한 방식으로 작동한다고 설명했다. 즉 NPU는 인간의 뇌처럼 서로 동시에 신호를 주고 받는 수많은 신경셰포와 시냅스로 구성돼 있으며, AI가 탑재돼 스스로 학습하고 의사결정을 할 수 있다는 점에서 인공지능 칩이라고 할수 있다고 덧붙였다. 과학 전문 매체 안드로이드 오소리티에 따르면 NPU는 독립적으로 존재할 수도 있지만, 더욱 친숙한 CPU 및 GPU 구성 요소와 함께 SoC(시스템 온 칩)에 직접 통합되는 경우가 점점 더 늘어나고 있다. NPU는 다양한 형태와 크기로 제공되며 칩 설계자에 따라 조금씩 다른 명칭으로 불린다. 이미 스마트폰 곳곳에서 다양한 NPU 모델을 찾아볼 수 있다. 퀄컴은 스냅드래곤 프로세서에 헥사곤을, 구글은 클라우드와 모바일 텐서 칩에 TPU를, 삼성은 엑시노스에 자체 NPU를 탑재했다. NPU는 이제 노트북과 PC 분야에서도 활용된다. 예를 들어, 최신 애플 M4에는 뉴럴 엔진이, 스냅드래곤 X 엘리트 플랫폼에는 퀄컴의 헥사곤 기능이 탑재되어 있으며, AMD와 인텔은 최신 칩셋에 NPU를 통합하기 시작했다. 완전히 동일하지는 않지만, 엔비디아의 GPU는 인상적인 숫자 처리 능력으로 그 경계를 모호하게 한다. NPU는 점점 더 많은 곳에 사용되고 있다. AI PC가 정말 필요할까? 현재로서는 AI 기능은 아직 초기 단계이며, 많은 인기 있는 챗봇과 마이크로소프트 코파일럿의 기능은 클라우드 기반으로 제공된다. 일부 노트북 제조사는 독점적인 AI 기능을 제공하지만, 대부분의 AI 기능은 아직 개발 중이며 실제 활용도는 불분명하다. NPU는 비디오 재생과 같은 일반적인 작업을 훨씬 낮은 전력으로 수행하여 배터리 수명을 절약할 수 있다는 장점이 있다. 일부 웹 브라우저는 GPU를 사용하여 비디오의 AI 업스케일링을 수행하지만, 곧 NPU로 전환될 예정이다. NPU는 오디오, 비디오 또는 사진 편집과 같은 작업을 수행할 때 CPU 또는 GPU보다 훨씬 낮은 전력으로 백그라운드 노이즈 제거와 같은 작업을 처리할 수 있다. 결론적으로, AI PC의 핵심 기능은 배터리 수명 연장이 될 수 있다. NPU 사용으로 노트북 배터리 수명이 크게 향상될 수 있다. 그러나 AI 기능은 아직 초기 단계이므로, 현재 PC가 제 기능을 하고 보안 업데이트를 받고 있다면 더 강력한 기술과 다양한 AI 도구가 출시될 때까지 기다리는 것이 좋다고 톰스 하드웨어는 전한다. AI PC는 더 안전할까? AI PC는 클라우드 대신 로컬에서 AI 작업을 처리하므로 보안 측면에서 장점을 제공할 수 있다. 그러나 AI 기능 자체의 보안도 중요하다. 최근 마이크로소프트는 개인 정보 보호 문제로 인해 새로운 AI 기능인 리콜(Recall)을 코파일럿+ 기능에서 제외했다. 기업에서 중요한 데이터를 처리하는 경우 로컬에서 AI 작업을 처리하는 것이 더 안전할 수 있다. 그러나 현재 시장에 출시된 대부분의 AI 기능은 중요한 비즈니스 도구는 아니다. 현재 'AI PC'라는 용어는 아직 모호한 측면이 있다. CPU 제조업체와 마이크로소프트는 강력한 NPU를 탑재한 새로운 컴퓨터(현재는 노트북만 해당)를 판매하기 위해 이 용어를 사용한다. 사람들이 실제로 사용하는 대부분의 생성형 AI 기능(챗봇, 이미지 생성기)은 클라우드에서 무료로 사용할 수 있으므로 로컬 형태에서는 필수적인 기능은 아니다. 그러나 NPU는 비디오 재생과 같은 일반적인 작업을 훨씬 낮은 전력으로 수행하여 배터리 수명을 절약할 수 있다는 장점이 있다. 일부 웹 브라우저는 현재 GPU를 사용하여 비디오의 AI 업스케일링을 수행하지만, 곧 NPU로 전환될 예정이다. NPU는 오디오, 비디오 또는 사진 편집과 같은 작업을 수행할 때 CPU 또는 GPU보다 훨씬 낮은 전력으로 백그라운드 노이즈 제거와 같은 작업을 처리할 수 있다. AI PC는 분명히 미래 컴퓨팅의 가능성을 보여주지만, 아직 극복해야 할 과제도 많다. 소비자들은 AI PC 구매 시 이러한 단점들을 충분히 고려하고, 자신의 필요와 예산에 맞는 제품을 선택해야 한다.
-
- 포커스온
-
[퓨처 Eyes(40)] AI PC, 혁신인가 과장인가?…차세대 컴퓨팅의 가능성과 한계
-
-
[퓨처 Eyes(33)] 인텔, 인간 뇌 모방 뉴로모픽 컴퓨터 '하라 포인트' 공개
- 미국 반도체 기업 인텔은 인간 뇌의 작동 방식을 본떠 설계 및 구성된 세계 최대 규모의 뉴로모픽 컴퓨터 '하라 포인트(Hala Point)'를 개발했다고 발표했다. '하라 포인트'라고 명명된 이 컴퓨팅 시스템은 차세대 인공지능(AI) 모델을 구축하려는 연구자를 지원하도록 설계됐다. 라이브사이언스에 따르면, 하라 포인트는 1152개의 신규 인공지능 칩 '로이히 2' 프로세서로 구동된다. 인텔 측은 이 혁신적인 시스템이 기존 컴퓨터 시스템 대비 인공지능 작업 속도를 50배 향상시키고 에너지 소비량을 100배 줄일 수 있다고 주장한다. 다만, 이 수치는 아직 동료 검토를 거치지 않은 연구 결과를 기반으로 한 것임을 밝혔다. 22일(현지시간) AI비즈니스 보도에 따르면, 인텔의 새로운 뉴로모픽 컴퓨터는 에너지 사용량을 크게 줄이면서 기존 GPU 대비 최대 50배 더 빠른 성능을 제공한다. '하라 포인트'에는 최대 11억 5000만 개의 인공 뉴런과 14만 544개의 뉴로모픽 처리 코어를 지원하며, 1152개의 로이히 2 프로세서에 분산된 1288억 개의 시냅스를 탑재하고 있다. 이 강력한 하드웨어는 초당 최대 20경 회 연산, 즉 20페타옵스의 처리 성능을 제공하며, 인텔의 초기 뉴로모픽 시스템인 포호이키 스프링스(Pohoiki Springs) 대비 최대 12배 향상된 성능을 자랑한다. 하라 포인트는 기존 하드웨어 대비 50배 빠른 속도로 동작하면서도 에너지 소비량은 100배 적게 소비한다. 이는 GPU 및 CPU 기반 시스템에서 달성한 성능을 뛰어넘는 놀라운 수치이며, 인공지능 분야의 발전에 획기적인 도약을 선사할 것으로 기대된다. 하지만 뉴로모픽 컴퓨터는 슈퍼컴퓨터와 데이터 처리 방식이 달라 직접적인 비교는 어렵다. 이 혁신적인 시스템은 뉴멕시코주 앨버커키에 위치한 샌디아 국립연구소에 설치되어 장치 물리학, 컴퓨팅 아키텍처, 컴퓨터 과학 등 다양한 분야의 과학적 문제 해결에 활용될 예정이다. 기존 컴퓨터와 어떻게 다른가? 뉴로모픽 컴퓨터는 기존 컴퓨터와 아키텍처부터 근본적으로 차별화된다. 미국 오크리지 국립연구소(Oak Ridge National Laboratory)의 컴퓨터 과학자 프라사나 데이트 박사는 리서치게이트(ResearchGate)에 올린 글에서 뉴로모픽 컴퓨터가 인공 신경망을 기반으로 구축된다고 설명했다. 기존 컴퓨터는 0과 1로 이루어진 이진 데이터를 처리하는 반면, 뉴로모픽 컴퓨터는 '스파이크 입력'이라는 일련의 불연속적인 전기 신호를 사용한다. 또한, 칩 자체에 메모리와 연산 능력을 통합하여 데이터 이동 거리를 줄이고 병렬 처리를 가능하게 함으로써 전력 소비를 획기적으로 감소시킨다. 인텔은 "하라 포인트가 AI 에이전트, 대규모 언어 모델, 스마트 시티 인프라 관리와 같은 '미래 지능형 응용 분야'에 대한 실시간 연속 학습을 가능하게 할 수 있다"고 밝혔다. 인텔 랩스 뉴로모픽 컴퓨팅 랩(Neuromorphic Computing Lab)의 마이크 데비스(Mike Davies) 소장은 "오늘날 인공지능 모델의 컴퓨팅 비용이 지속 불가능한 속도로 증가하고 있다"고 지적했다. 그는 "현재 인공지능 산업은 확장 가능한 근본적으로 새로운 접근 방식을 절실히 필요로 한다"고 강조하며, 이에 인텔은 딥 러닝 효율성과 혁신적인 두뇌 영감 학습 및 최적화 기능을 결합한 첨단 뉴로모픽 컴퓨터 '하라 포인트'를 개발했다고 설명했다. 데비스 소장은 "하라 포인트를 통한 연구가 대규모 인공지능 기술의 효율성과 적응성을 크게 향상시킬 수 있을 것으로 기대한다"고 덧붙였다. 현재 하라 포인트는 연구용 프로토타입 단계라 구매는 불가능하다. 하지만 인텔은 이 혁신적인 시스템이 미래 인공지능 제품의 기반이 되고 인공지능으로 인한 컴퓨팅 집약도를 효과적으로 줄이는 데 기여할 것으로 기대하고 있다. 뉴로모픽 컴퓨팅, AI혁신 이끌까? 뉴로모픽 컴퓨팅(Neuromorphic Computing)은 인간 뇌의 놀라운 신경 가소성, 즉 경험을 통해 적응하고 변화하는 뇌의 능력을 모방하는 시스템 구축에 초점을 맞춘 첨단 연구 분야이다. 이진 코드를 사용하는 기존 컴퓨팅 시스템과 달리 뉴로모픽 시스템은 인공 뉴런과 시냅스의 복잡한 네트워크를 활용하여 정보를 처리한다. 연구자들은 뉴로모픽 컴퓨팅이 인간 두뇌의 놀라운 학습 능력을 모방하여 시스템의 효율성을 극대화하고 정보 처리 능력을 향상시킬 수 있다고 기대한다. 인공지능 시스템은 이전 경험과 데이터를 활용하여 지속적으로 학습하고 발전할 수 있을 것으로 전망된다. 인텔의 혁신적인 노력 외에도, 구글 딥마인드(Google DeepMind)는 단순히 증가하는 데이터로 AI 작업을 훈련하는 것이 아니라 메모리에서 학습하도록 가르치는 '뉴로AI(NeuroAI)' 개념을 연구하고 있다. 뉴로모픽 하드웨어 시스템의 또 다른 예로는 IBM의 '노스폴(NorthPole)' 반도체가 있다. 이는 인간 두뇌의 정보 처리 방식을 모방하지만 단일 칩에 구현된 첨단 시스템이다. 인텔의 뉴로모픽 컴퓨터 시스템은 비디오, 음성, 무선 통신 등 다양한 워크로드를 처리하는 딥 러닝 모델을 크게 강화할 수 있는 잠재력을 지닌다. 인공지능 분야의 게임 체인저인가? 초기 연구 결과에 따르면, 하라 포인트는 인공지능 작업에서 와트당 15조 연산(TOPS/W)이라는 놀라운 에너지 효율성을 달성했다. 대부분의 기존 인공 신경망 처리 장치(NPU)와 다른 인공지능 시스템들이 보여주는 와트당 10 TOPS 이하의 수치를 훨씬 뛰어넘는 성능이다. 뉴로모틱 컴퓨팅은 인공지능 응용 분야에서 특히 유망한 기술로 여겨지고 있다. 로보틱스, 자율주행 차량, 지능형 카메라 시스템, 실시간 의사 결정 시스템 등 다양한 분야에서 활용될 수 있다. 또 뉴모로틱 칩은 전력 소모가 매우 낮아 배터리 수명이 중요한 모바일 기기나 원격 센서에 적합하다. 그러나 고도의 복잡성과 대규모 통합을 요구하는 뉴로모틱 칩의 설계와 제조는 아직까지 도전 과제로 남아 있다. 또한 이 기술을 기존의 컴퓨팅 시스템과 효울적으로 통합하는 방법도 주요 과제 중 하나다. 뉴로모픽 컴퓨팅 기술은 아직 초기 개발 단계이지만, 하라 포인트와 유사한 규모의 시스템들은 빠르게 개발되고 있다. 호주 서부 시드니 대학교 국제 뉴로모픽 시스템 연구 센터(ICNS)는 2023년 12월 유사한 시스템을 배치할 계획이라고 발표했다.
-
- 포커스온
-
[퓨처 Eyes(33)] 인텔, 인간 뇌 모방 뉴로모픽 컴퓨터 '하라 포인트' 공개
-
-
신경과학자, AI 활용해 학습·의사결정 과정 맵핑⋯뇌 작동 방식 밝혀내
- 신경과학자들이 인공지능(AI)을 활용해 강화학습과 의사결정 과정을 매핑해 뇌의 작동 방식을 밝히고 있다. 강아지는 "앉아"라는 명령을 듣고 시행착오와 반복, 칭찬을 통해 무엇을 해야 하는지 배우게 된다. 이것이 바로 '강화 학습(reinforcement learning)'이다. 플로리다 대학 허버트 워트헤임 스크립스 연구소(Herbert Wertheim UF Scripps Institute for Biomedical Innovation & Technology)의 신경과학자 료마 하토리(Ryoma Hattori) 박사는 강화학습에 매료돼 일관적인 연구를 하고 있다. 그는 강화 학습을 이해하고 맵핑하는 연구를 진행하고 있으며 뇌가 어떻게 정보를 통해 결정을 내리는지, 또 뇌가 어떻게 정보를 통합하는지 연구한다. 미국 건강 의학 매체 메디컬익스프레스(MedicalXpress)는 23일(현지시간) 인간의 뇌는 약 860억 개의 뉴런으로 구성되어 있으며, 이 뉴런들은 100조 개 이상의 연결을 형성하고 있는 매우 복잡한 구조라고 전했다. 하토리 박사는 의사 결정 과정에는 많은 요소들이 영향을 미친다고 말했다. 간단한 식당 선택만 해도 기억과 판단의 복잡한 행렬을 통해 이루어지기 때문에 여러 뇌 영역이 동원된다. 어떤 식당은 음식과 서비스가 좋지만, 그렇지 않은 식당도 있다. 가격도 어떤 곳은 비싸고 어떤 곳은 저렴하다. 경험은 결정을 내리는 데 필요한 가치를 부여하고 고려해야 하는 입력 자료를 제공한다. 하토리 박사는 "이 모든 과정을 통합하는 것은 매우 어려운 일이지만, 우리 뇌는 어떻게든 그렇게 한다"며 이 과정의 기저 메커니즘을 이해하는 것이 정신질환 및 자폐 스펙트럼 장애 치료에 중요한 단서가 될 수 있다고 주장했다. 그는 "많은 정신질환과 신경계 질환은 의사결정 기능 일부가 손상되는 것을 특징으로 한다"고 설명했다. 여러 뇌 영역이 상호작용해 보상 경험을 처리하고 의사결정을 유도하는 방식을 모델링하는 것은 흥미로운 도전이다. 하토리 박사는 데이터 수집을 위해 대규모 2광자 이미징, 가상현실 기반 실험, 신경 활동 조작을 위한 빛을 사용하는 방법인 광유전학 등 다양한 연구 기법을 사용한다. 또 계산 모델링이 점점 더 복잡한 동물 행동과 뇌 동태를 이해하는 데 중요한 도구가 되고 있다고 말했다. 하토리 박사와 그의 연구팀은 연구를 돕기 위해 인공지능을 개발하고 있다. 인공지능은 신경과학 발견을 발전시키는 데 도움을 주고, 신경과학 발견은 또한 인공지능 개선에도 도움을 줄 수 있다. 그는 "뇌와 인공지능은 모두 신경 활동 역학과 시냅스 가소성을 이용하여 연산 및 학습을 수행하는 신경망으로 구성되어 있다"며 "이들은 외부 입력을 받고 정보를 처리하여 행동을 출력하고 이 행동의 결과는 네트워크 학습을 유도한다. 이러한 유사성은 특정 행동에 대한 신경망 모델로 인공지능을 사용할 수 있는 기회를 제공한다"고 밝혔다. 하토리 박사는 막스 플랑크(Max Planck)의 과학 감독인 료헤이 야수다(Ryohei Yasuda) 박사와 공동으로 최근 '자연 신경과학(Nature Neuroscience)' 저널에 일반화된 지식 획득에서 궤도전두피질이라는 뇌 영역의 역할에 대한 논문을 발표했다. 연구팀은 쥐가 새로운 환경에 적응하면서 다양한 시간 규모의 다중 레이어 학습이 작용하는 것을 발견했다. 쥐의 학습 메커니즘은 인공지능 연구자들이 개발한 강화 학습 컴퓨터 모델과 유사했다. 하토리 박사는 "우리는 인공지능으로부터 뇌 메커니즘에 대한 통찰력을 얻을 수 있으며 또한 의사결정과 학습을 위한 뇌 메커니즘을 더 잘 이해함에 따라 이 지식을 인공지능 모델로 이전할 수 있다"라며 "내 연구 프로젝트가 뇌 이해에 기여하고 기계 학습 커뮤니티에서 더 나은 성능을 발휘하는 인공지능 개발에 기여하기를 바란다"고 말했다.
-
- IT/바이오
-
신경과학자, AI 활용해 학습·의사결정 과정 맵핑⋯뇌 작동 방식 밝혀내
-
-
알츠하이머, 미세아교세포 염증 유발 메커니즘 규명
- 알츠하이머병은 치매의 가장 흔한 원인으로, 뇌의 퇴행적인 질환 중 하나다. 이 질환은 독일의 정신과 의사 알로이스 알츠하이머(Alois Alzheimer) 박사에 의해 1907년에 처음으로 보고되었으며, 서서히 발병하여 기억력을 비롯한 인지 능력의 저하가 점진적으로 진행되는 특징을 갖고 있다. 아직까지 알츠하이머병에 대한 정확한 치료법은 없지만, 이 병에 대항할 수 있는 새로운 치료법이 곧 나타날 것으로 기대된다. 과학 전문매체 '사이언스얼럿(ScienceAlert)'은 워싱턴 대학교 연구팀이 인간 뇌 조직을 분석한 결과, 알츠하이머병 환자의 뇌에서 면역 세포의 행동이 건강한 뇌와 비교해 다른 방식으로 작용함을 발견했다고 최근 보도했다. 이러한 발견은 새로운 치료 대상을 제시하는 중요한 징조로 간주된다. 2023년 8월 발표된 워싱턴 대학교 주도의 연구에서는 알츠하이머병 환자의 뇌 조직에서 소교세포가 염증 초기 단계에 더 빈번하게 나타나며 이로 인해 보호 기능이 감소하는 것으로 나타났다. 소교세포는 노폐물을 청소하고 정상적인 뇌 기능을 유지하는 데 도움을 주는 면역 세포다. 이 특별한 소교세포는 감염에 대응하거나 죽은 세포를 제거하기 위해 더 민첩하게 움직여 침입자와 불필요한 물질을 소멸시킨다. 또한 발달 과정에서는 시냅스를 '가지치기'하여 뇌가 원활한 회로를 형성하는 데 도움을 준다. 알츠하이머병과 소교세포의 관련성은 여전히 확실하지 않지만, 이 신경퇴행성 질환을 앓고 있는 일부 개인들에서는 소교세포가 지나치게 활성화되어 뇌 세포의 염증과 죽음을 유발할 수 있다는 연구 결과가 있다. 안타깝게도, 알츠하이머병에 대한 항염증 치료에 대한 임상 시험에서는 유의미한 효과가 나타나지 않았다. 알츠하이머병에서 소교세포의 역할을 연구하기 위해 워싱턴 대학의 신경과학자 캐서린 프라터(Katherine Prater)와 케빈 그린(Kevin Green)은 여러 미국 기관의 협력 연구자들과 함께 연구 기증자(알츠하이머 환자 12명과 건강한 대조군 10명)의 뇌 부검 샘플을 분석했다. 연구팀은 새로운 단일핵 RNA 시퀀싱 기술을 활용하여, 세포에서 어떤 활동을 수행하는지에 대한 고유한 유전자 발현 패턴을 기반으로 뇌 조직에서 10개의 서로 다른 미세아교세포 클러스터를 깊게 식별할 수 있었다. 이 중 3개의 클러스터는 이전에 발견되지 않은 것이었으며, 그 중 하나는 알츠하이머병 환자에서 보다 더 빈번하게 나타났다. 이러한 유형의 소교세포는 염증 및 세포 사멸과 관련된 유전자가 활성화되어 있음이 확인됐다. 전체적으로, 연구자들은 알츠하이머병 환자의 뇌에 있는 미세아교세포 클러스터가 염증 초기 단계에 더 높다는 것으로 발견했다. 이는 뇌세포를 손상시키고 알츠하이머병의 진행에 기여할 수 있는 염증 분자를 생성할 가능성이 더 높다는 것을 시사한다. 알츠하이머병 환자의 뇌에 있는 소교세포 유형은 보호 기능이 더 적어 죽은 세포와 노폐물을 제거하며 건강한 뇌 노화를 촉진하는 역할을 손상시킬 수 있다. 과학자들은 또한 시간이 지남에 따라 소교세포의 형태가 변할 수 있다고 추정했다. 개별 개인의 뇌에서 어떤 종류의 소교세포가 존재하는지 정확히 알기 어렵다. 다만 미세아교세포의 변화를 추적함으로써, 알츠하이머병에 기여하는 방식을 이해하는 데 도움이 될 수 있을 것으로 기대된다. 이 연구는 아직 초기 단계이지만 알츠하이머병에서 이들 세포의 역할에 대한 이해를 높이고 특정 소교세포 클러스터가 새로운 치료법의 표적이 될 수 있는 가능성이 있음을 시사한다. 연구팀은 이러한 연구 결과가 알츠하이머병 환자의 삶을 개선할 수 있는 새로운 치료법의 개발로 이어질 것으로 기대하고 있다. 프라터 박사는 "이제 우리는 이러한 소교세포의 유전적 특성을 파악했기 때문에 그들의 정확한 기능과 알츠하이머병에 기여할 수 있는 행동을 식별하려고 노력할 수 있다"며 "이들의 작용 방식을 이해한다면 이 질병을 예방하거나 진행을 늦출 수 있는 치료법으로 그들의 작용을 조절하는 데 기여할 수 있을 것이다"라고 설명했다. 한편, 서울대학교병원 의학 정보에 따르면, 알츠하이머병의 근본적인 치료법은 아직 개발되지 않았다. 그러나 증상을 완화시키고 진행을 지연시킬 수 있는 약물이 임상 현장에서 사용되고 있다. 대표적인 약물 중 하나로 아세틸콜린 분해 효소 억제제가 있다. 이 약물 계열은 질병의 진행을 완전히 막을 수는 없지만, 약 6개월에서 2년 정도 진행을 늦추는 효과가 있다. 이러한 약물은 알츠하이머병 환자의 뇌에서 감소한 아세틸콜린이라는 신경전달물질의 양을 증가시킴으로써 작용하며, 뇌 손상이 심하지 않은 경도 및 중등도 환자에게 특히 효과적이다.
-
- IT/바이오
-
알츠하이머, 미세아교세포 염증 유발 메커니즘 규명
-
-
美 뇌 노화 단백질 발견…기억력 개선 기대
- 미국 마운트 시나이(Mount Sinai) 대학 연구팀이 뇌 노화 관련 단백질을 발견했다고 발표했다. 이 단백질은 TIMP2(조직 억제제 메탈로프로테아제 2)로 불리며, 해마 영역에서 기억력과 학습에 중요한 역할을 한다. 사이테크데일리에 따르면 마운트 시나이 대학 연구팀은 돌연변이 마우스 모델을 사용하여 뇌 노화 단백질(TIMP2) 수치가 감소하면 해마의 가소성(plasticity)과 기억 기능이 감소한다는 것을 발견했다. 가소성은 뇌가 새로운 정보를 받아들이고 학습할 수 있는 능력을 말한다. 노화와 신경퇴행성 질환 노화는 알츠하이머병을 포함한 많은 신경퇴행성 질환의 가장 큰 위험 요인으로 알려져 있다. 마운트 시나이 연구팀과 다른 연구자들의 이전 연구는 TIMP2를 포함하여 젊은 혈액에 풍부한 단백질이 해마의 가소성 또는 기억과 관련된 신경 과정의 유연성에 영향을 미쳐 늙은 동물의 뇌 기능을 젊어지게 하는 데 활용될 수 있다는 것을 발견했다. 이러한 중요한 발견에도 불구하고 TIMP2가 분자 수준에서 해마의 가소성을 조절하는 방법에 대한 생물학에 대해서는 알려진 바가 거의 없었다. TIMP2의 분자 메커니즘 연구팀은 나이가 들면서 발생하는 것으로 알려진 혈액과 해마의 TIMP2 수치 손실을 모방한 돌연변이 쥐 모델을 사용했다. 또한 연구자들이 해마의 뉴런에 의해 발현되는 TIMP2 풀을 구체적으로 표적으로 삼고 삭제할 수 있는 모델을 만들었다. 이러한 모델은 RNA 염기서열 분석, 공초점 이미징, 초고해상도 현미경 및 행동 연구와 결합하여 TIMP2의 가소성 조절에 대한 상세한 분자 검사를 가능하게 했다. 연구진은 TIMP2의 손실은 해마에 세포외 기질 성분의 축적을 초래하며, 이는 성인으로 태어난 뉴런의 생성, 시냅스 무결성 및 기억을 포함한 가소성 과정의 감소와 함께 발생한다는 것을 알게 되었다. 세포외 기질은 세포 주변과 세포 사이의 구조적 미세환경을 구성하는 많은 고분자 구성 요소의 네트워크이다. 연구팀은 세포외 기질에 영향을 미치는 해마에 전달된 효소로 이 표현형을 직접 표적으로 삼았고, 감소된 TIMP2 설정에서 일반적으로 손상된 가소성 과정이 복원되었음을 발견했다. 뇌 노화 단백질 발견의 의의 이 연구는 세포외 기질을 조절하는 표적 과정이 뇌의 가소성을 개선하는 접근법을 설계하는 데 중요한 방향이 될 수 있음을 시사한다. 뇌 노화의 특징을 역전시킬 수 있는 잠재력을 가진 요인을 특성화하는 데 주력하고 있는 연구팀은 세포외 기질을 조절하는 TIMP2 이상의 분자를 탐구할 계획이며, 이 연구가 노화와 관련된 다양한 장애를 완화하는 맥락에서 이 분야를 어디로 가져갈 수 있는지에 대해 낙관적이다. 연구팀의 공동 저자인 조셉 칼스테로노(Joseph Castellano) 박사는 "TIMP2는 세포외 기질의 구성 요소를 통해 미세환경의 유연성을 변화시킨다"라고 말했다. 그는 "세포외 기질을 조절하는 경로를 연구하는 것은 가소성이 영향을 받는 질병에 대한 새로운 치료법을 설계하는 데 중요할 수 있다"고 덧붙였다. 연구팀은 앞으로 TIMP2가 뇌의 다른 영역에서 어떤 역할을 하는지, 그리고 TIMP2를 조절하는 방법으로 뇌 노화 관련 질환을 치료할 수 있는지 연구할 계획이다. 마운트 시나이 대학 연구팀의 이번 연구는 뇌 노화와 관련된 단백질이 뇌 가소성과 기억력에 미치는 영향을 밝힌 것으로 주목된다. 이 연구 결과는 알츠하이머병과 같은 노화 관련 질환의 치료법 개발에 새로운 가능성을 제시할 것으로 기대된다.
-
- IT/바이오
-
美 뇌 노화 단백질 발견…기억력 개선 기대
-
-
[퓨처 Eyes(11)] 나노와이어 '두뇌' 네트워크, "즉시 학습하고 기억" 가능성 입증
- 최근 '나노와이어 두뇌' 등 물리적 신경망의 혁신적인 발전이 주목을 받고 있다. 뇌의 뉴런이 작동하는 방식에서 영감 받은 물리적 신경망은 최근 실험에서 처음으로 즉석에서 학습하고 기억하는 것이 확인되는 단계에 이르렀다. 나노와이어 두뇌는 인공 지능(AI)과 기계 학습 분야에서 사용되는 혁신적인 기술 중 하나다. 이 개념의 핵심은 미세한 나노스케일의 와이어를 사용하여 인간 두뇌의 작동 방식을 모방하는 것이다. 다시 말하면, 나노와이어 두뇌 또는 나노와이어를 사용하는 인공 신경망은 뇌의 구조와 기능을 모방하기 위해 나노스케일의 전도성 와이어를 사용하는 첨단 기술이다. 이 기술은 신경과학과 나노기술의 교차점에 있으며, 인공 지능과 머신 러닝 분야에서 혁신적인 발전을 가져올 가능성이 크다. 과학전문 매체 사이키(phys.org)에 따르면 호주 시드니 대학교와 미국 로스앤젤레스 캘리포니아 대학교의 과학자들이 주도한 최근 연구에서 나노와이어 네트워크(신경망)가 뇌의 뉴런처럼 작동하여 '즉석에서 학습하고 기억'하는 능력을 보여주었다. 나노와이어 신경망이란? 나노와이어 네트워크는 직경이 불과 10억 분의 1미터인 미세한 와이어들로 구성되어 있다. 이 와이어들은 어린이 게임 '나무 블록 빼기 놀이'(Pick Up Sticks, 쌓아 올려져 있는 나무 조각들의 밑창 빼기)와 유사한 패턴으로 배열되어 있으며, 인간 뇌의 신경망을 모방한다. 이는 복잡한 실제 학습과 기억 작업을 수행할 수 있는 저에너지 기계 지능 개발의 가능성을 열어주고 있다. 논문 제1저자인 루오민 주(Ruomin Zhu) 시드니대학교 나노연구소 및 물리학과 박사과정 연구원은 "나노와이어 네트워크를 사용해 뇌에서 영감을 받은 학습·기억 기능을 동적 스트리밍 데이터 처리에 활용할 수 있다"고 설명했다. 기억과 학습 작업은 나노와이어가 교차하는 접점에서 발생하는 전자 저항의 변화를 이용한 간단한 알고리즘을 통해 이루어진다. 이 기능은 '저항성 메모리 스위칭'으로 알려져 있으며, 전기적 입력이 전도성 변화와 맞닥뜨릴 때 발생한다. 이는 인간 뇌의 시냅스에서 일어나는 현상과 유사하다. 이 연구는 인공 지능과 기계 학습 분야에서 새로운 장을 열고 있으며, 향후 더욱 효율적이고 지능적인 기계 시스템의 개발로 이어질 것으로 기대된다. 이 연구 결과는 '네이처 커뮤니케이션즈'에 지난 11월 1일 게재됐다. 이 연구에서 과학자들은 이미지에 해당하는 전기 펄스 시퀀스를 인식하고 기억하는 방법으로 나노와이어 네트워크를 활용했다. 이는 인간 뇌의 정보 처리 방식에서 영감을 얻은 것으로, 뇌과학과 인공 지능의 접목을 시도한 중요한 연구 사례로 평가된다. 전화번호 기억과 비슷 연구 책임자인 즈덴카 쿤치치 교수는 이 기억 과제가 전화번호를 기억하는 것과 비슷하다고 설명했다. 그는 이 네트워크가 MNIST 데이터베이스의 필기 숫자 이미지, 즉 머신 러닝에서 사용되는 7만개의 작은 회색조 이미지 컬렉션을 활용하여 벤치마크 이미지 인식 작업을 수행했다고 말했다. 쿤치치 교수는 "과거 연구에서 나노와이어 네트워크가 간단한 작업을 기억하는 능력을 증명했다. 이번 연구는 온라인으로 접근 가능한 동적 데이터를 활용하여 작업을 수행함으로써 이러한 연구 결과를 확장했다"고 덧붙였다. 그는 "지속적으로 변경되는 대량의 데이터를 처리할 때 온라인 학습 기능을 달성하는 것은 어려운 과제다. 표준 방식은 데이터를 먼저 메모리에 저장한 후 이를 활용해 머신 러닝 모델을 훈련하는 것이지만, 이 방법은 광범위한 적용에는 너무 많은 에너지를 소모한다"고 설명했다. 이어 "우리의 새로운 접근 방식을 통해 나노와이어 신경망은 데이터 샘플마다 즉시 학습하고 기억함으로써 온라인으로 데이터를 추출할 수 있으며, 이는 메모리와 에너지 사용을 크게 줄여준다"고 말했다. 루오민 주 연구원은 온라인 정보 처리의 추가적인 장점을 언급했다. 그는 "예를 들어, 센서에서 데이터가 지속적으로 스트리밍되는 상황에서는, 인공 신경망을 활용한 머신 러닝이 실시간으로 적응할 수 있어야 한다. 하지만 현재 기술은 이에 최적화되어 있지 않다"고 부연했다. 이 연구에서 나노와이어 신경망은 테스트 이미지를 93.4%의 정확도로 식별하며 벤치마크 머신 러닝 성능을 입증했다. 연구에 포함된 기억 과제는 최대 8자리 숫자 시퀀스를 재생하는 것이었다. 두 과제 모두에서, 데이터를 네트워크로 스트리밍하여 온라인 학습 능력을 증명하고, 메모리가 학습을 어떻게 향상시키는지를 보여주었다. 나노와이어 두뇌 특징 나노와이어 두뇌의 특징으로는 나노스케일 구조와 전도성, 플라스틱성, 저에너지 소비 등이 있다. 먼저 나노와이어는 극도로 작은 크기(일반적으로 나노미터 단위)를 가지고 있어, 매우 높은 밀도의 신경망을 구현할 수 있다. 이는 인간 두뇌의 복잡한 신경망을 모방하는 데 유리하며, 여러 신경망의 연결을 통해 복잡한 계산을 수행할 수 있다. 전통적인 전자 기기에 비해 에너지 효율이 높아 저에너지를 사용한다. 또한 나노와이어는 전기 신호를 효율적으로 전달할 수 있어, 뇌의 신경 전달 방식을 모방하는 데 적합하다. 나노와이어 기반 신경망은 플라스틱성(학습과 기억에 필요한 구조적, 기능적 변화)을 통해 새로운 정보를 학습하고 저장할 수 있다. 나노와이어는 전기화학적 신호를 사용하여 정보를 처리하고 저장한다. 뉴런과 같이 동적으로 연결되며, 학습과 기억 과정에서 이들 연결이 강화되거나 약화된다. 나노와이어 두뇌 응용 분야 나노와이어 두뇌는 인간 두뇌와 유사한 방식으로 정보를 처리하고 학습하는 AI 시스템에 활용된다. 데이터 스트리밍과 실시간 학습 능력을 통해 기계 학습 모델을 개선하는 데 사용될 수 있다. 자율적인 의사결정과 복잡한 환경에서의 적응력을 갖춘 로봇에 적용될 수 있다. 나노와이어 기반 기술은 미래의 AI 및 컴퓨팅 분야에서 중요한 역할을 할 수 있는 잠재력을 가지고 있다. 그러나 이 기술은 아직까지 연구 개발 단계에 있으며, 상용화까지는 추가 연구와 발전이 필요하다. 이러한 나노와이어 두뇌 기술은 빠르게 진화하고 있는 분야로, 그 개발과 응용은 향후 몇 년 동안 상당한 관심을 끌 것으로 예상된다.
-
- 포커스온
-
[퓨처 Eyes(11)] 나노와이어 '두뇌' 네트워크, "즉시 학습하고 기억" 가능성 입증