조셉 마킨 박사와 동료들은 참가자 4명을 모집했어요. 간질 발작을 모니터링하는 뇌 임플란트를 활용해 참가자들이 말을 하는 동안 뉴런의 신경 데이터를 추적했다고 합니다. 특히 "티나 터너는 팝가수야" "이 도둑들은 30개의 보석을 훔쳤어"같은 50개 문장을 집중적으로 소리내 읽도록 시켰죠. 이후 AI 머신러닝을 활용해 수집한 뇌파를 일련의 단어로 바꾸는 과정을 반복했다고 하네요.
문장으로 전송도 가능합니다. 머린러닝을 반복했고, 참가자들이 실제로 말한 음성과 뇌파를 문자로 바꾼 것을 대조 해보니 단어 오류율이 3% 정도까지도 떨어졌다고 하는데요. 이는 전문기록사 오류율 5%에 비해 낮은 수준이라는 평가를 받았습니다. 물론 아직 50개 미만 문장만 머신러닝을 했기 때문에 매우 제한적 실험이었고, 상용화는 아직이라는 평이 우세해요. 다만,
전신마비된 락트인증후군을 겪고 있는 환자들과 향후 의사소통이 가능해지는 것 아니냐는 기대를 받았다네요. 물론 AI를 둘러싼 비판이 함께 일어날 것 같아요. 인공지능을 활용해 독심술을 쓰게 된다면, 미래에는 어떤 일이 벌어질까요?
|