언어장애를 가진 사람이 생각하는 것만으로 목소리를 낼 수 있게 해주는 뇌 임플란트가 개발됐다.
19일(현지시간) 미국 라이브사이언스 등에 따르면 에린 쿤츠 전기공학자가 이끄는 스탠퍼드대학교 연구팀은 근위축성 측색 경화증(ALS)이나 뇌간 뇌졸중으로 마비가 생긴 4명을 상대로 뇌 임플란트 장치를 실험했다. 연구 결과는 지난 14일 국제학술지 셀(Cell)을 통해 발표됐다.
연구팀은 참가자들의 뇌에 '뇌-컴퓨터 인터페이스'(BCI)를 이식하고, 뇌에 있는 전극이 수집한 전기 신호로 인공지능(AI) 모델을 훈련시켰다. 이를 통해 참가자가 '말'하고자 하는 내용과 단순히 '생각'에 머문 내용을 구분 지었다.
그 결과 이 BCI는 참가자들이 마음속으로 '말한' 문장을 최대 74% 정확도로 해독했다. '말'을 하려는 시도는 발성기관을 움직여 언어를 표현하는 운동피질에서 운동이 일어났고, '생각'에 그친 내용은 전반적으로 약한 활동이었기 때문에 가능했다.
다만 아직 윤리적 문제가 해결되지 않았다. 낮은 가능성이지만 단순히 생각만 하려던 내용이 BCI를 통해 외부로 유출될 가능성도 남아있기 때문이다. 영화 '사토라레'처럼 의지와 상관없이 내 생각이 남들에게 알려지게 되면 심각한 사생활 침해 문제를 낳을 수 있다.
미국 듀크 대학교의 니타 파라하니 법학과 철학 교수는 NPR에 “내면의 목소리를 해독할 수 있다는 생각은 불안한 움직임”이라며 “이 연구를 더 많이 추진할수록 우리의 뇌는 더욱 투명해지게 된다. 사람들의 정신적 사생활을 보호하기 위한 조치가 뇌의 신호를 해독하는 기술에 비해 뒤처져 있다”고 지적했다.
쿤츠 연구원은 이와 관련 “알렉사나 시리와 같은 인공지능(AI) 비서가 사용하는 접근 방법을 차용해, 특정 문구를 들었을 때만 깨어나는 방식을 도입했다. 우리는 '치티치티 뱅뱅'이라는 단어를 선택했다. 대화에서 자주 나오지 않고, 쉽게 식별할 수 있는 문구”라고 설명했다.
이어 “시도된 말과 내면의 말 사이의 뇌 신호 차이를 확인했다”며 “이는 미래의 뇌-컴퓨터 인터페이스가 내면의 말을 완전히 무시하도록 훈련될 수 있음을 시사한다”고 덧붙였다.