Yapay zeka ile konuşamayan insanların beyin sinyalleri okunabiliyor
Stephen Hawking gibi konuşamayan motor-nöron hastaları için yapay zeka teknolojisi bir ilki daha başardı. Artık hiç konuşmayan kişilerin beyin sinyalleri okunarak konuşabilecekler. Sinirbilimciler, konuşamayan insanların seslerini duyurabilmeleri için beyin sinyallerini konuşmaya dönüştüren bir cihaz tasarladı. Nasıl mı?
Yapay zeka ile konuşamayan insanların beyin sinyalleri okunabiliyor
Bu teknoloji henüz laboratuvar dışında kullanılmaya hazır değilse de tam bir cümleyi anlaşılabilir hale getirebiliyor. Nature dergisinin 24 Nisan 2019 tarihli sayısında yayımlanan makalede cihazı geliştirenler konuşmanın şifresini nasıl çözdüklerini açıklıyor.
Bilim insanları daha önce tek tek sözcükleri çevirmek için yapay zekâdan yararlanıyorlardı. Çalışmaya destek veren Atlanta’daki Emory Üniversitesi’nden Chethan Pandarinath son çalışmanın önemini şöyle açıklıyor: “Daha önce yapay zekâ yalnızca heceleri tercüme edebiliyordu. Tek bir heceden cümlelere geçmek teknik açıdan aşılması çok zor bir engeldi ve bu çalışma bunu başararak çok büyük bir ilerleme kaydetti.”
Hareketlerin haritası çıkartıldı
Konuşma yetisini yitiren insanlar, halihazırda iletişim kurabilmek için belli belirsiz hereketlerle çalışan bir teknolojiden yararlanıyorlardı. Bu hareketler ekrandaki kelimeleri veya harfleri seçen bir imleci kontrol ediyordu.
Als hastalığı motor nöron hastalığı içinde en çok bilineni diyebiliriz. Ünlü İngiliz bilim insanı Stephen Hawking bu tip sinir hastalıkları için en iyi örnektir. Hawking, yanağındaki bir kasın hareketiyle faal duruma geçen konuşma-üreten bir cihaz kullanıyordu.
San Francisco Kaliforniya Üniversitesi’nden çalışmanın başyazarı nöroşirürjist Edward Chang, daha önce bu cihazları kullanan insanların kelimeleri harf harf yazdırmaları gerektiğini, bunun da konuşma süresini çok yavaşlattığına dikkat çekiyor.
Bu süre genellikle dakikada 10 sözcüğü geçmiyordu. Oysa normal konuşma hızı ortalama dakikada 150 sözcüktür. Chang bu hızı, ses yollarının koordineli ve hızlı çalışmasına bağlıyor. Bu nedenle Chang ve ekibi yeni bir decoder* geliştirirken ses yollarının izlediği yolun haritasını çıkartmaya karar verdiler.
Denek olarak 5 epilepsi hastası
Çalışmada bilim insanları epilepsi tedavisi kapsamında beyinlerinin yüzeyine elektrotların bağlı olduğu 5 kişiyi denek olarak kullandılar. İlk önce denekler yüzlerce cümleyi sesli olarak okurken beyin aktiviteleri kaydedildi. Daha sonra bu ses kayıtlarını, dil, dudaklar, çene ve gırtlak hareketlerinin sesi nasıl oluşturduğunu ortaya koyan verilerle birleştirdiler.
Derin öğrenme algoritmalarını bu verilere uygulayan ekip, programı dekoder’a yüklediler. Cihaz, beyin sinyallerini ses yollarının harketlerine ve bu hareketleri sentetik konuşmaya dönüştürdü. Chang sonuçları şöyle açıklıyor: “Sentezlenen 101 cümleyi dinleyen insanlar kelimelerin % 70’ini anladılar.”
Gelecekte sesini duyuramayan insan kalmayacak
Sinirbilimcilere göre beyin faaliyetlerinin haritasını, ses yollarının hareketleriyle birleştirmek ve sese dönüştürmek suretiyle yaratılan konuşma, beyin aktivitelerini doğrudan ses dönüştürerek elde edilen konuşmadan daha net anlaşılıyor.
Ancak bu yeni konuşma dekoder’inin insanların yalnızca düşünmekle ürettiği sözcüklerle çalışıp çalışmayacağı henüz bilinmiyor. Washington Üniversitesi’nden nöral mühendis Amy Orsborn, “Bu çalışma, cihazın konuşmaya yönelik küçük kas hareketlerini okumakta başarılı olduğunu gösteriyor. Ama hasta ağzını bile oynatamıyorsa nasıl çalışacak?”
Anlaşılıyor ki dekoder’in laboratuvar dışında kullanıma hazır hale gelmesi epey zaman alacak.