– NextMind to elektronika do noszenia, której głównym zadaniem jest umożliwienie użytkownikowi kontrolowanie danego urządzenia lub komputera za pomocą mózgu – mówi agencji Newseria Innowacje Sune Alstrup ze start-upu NextMind. – Wcześniej nie mieliśmy dostępu do interfejsu mózg–komputer bez ogromnego zestawu okularów ani kontroli nad urządzeniem w czasie rzeczywistym. To pierwsze takie urządzenie do noszenia z interfejsem tego typu, które zapewnia kontrolę interfejsu w czasie rzeczywistym.
NextMind opracował interfejs mózg–komputer (BCI), który tłumaczy sygnały z kory wzrokowej na polecenia cyfrowe. To elektroencefalogram do noszenia – osiem elektrod przyczepionych do tylnej części głowy za pomocą prostego paska na czoło odbiera fale mózgowe z kory wzrokowej. Aby korzystać z urządzenia, użytkownik musi skoncentrować się na określonym obiekcie. Dzięki reakcji w korze wzrokowej generowane są wzorce fal mózgowych do odczytu maszynowego. Taki neurosynchronizm jest następnie wykorzystywany do przełożenia uwagi wzrokowej na polecenia komputera. W przyszłości, jak zapowiadają twórcy, urządzenie ma działać nawet przy zamkniętych oczach.
– Interfejs może być wykorzystywany w samochodzie, można także zmieniać kanały telewizyjne lub kontrolować za pomocą mózgu różne opcje w komputerze. Można sobie również wyobrazić grę, i to w dość niedalekiej przyszłości. Zestaw może mieć wbudowany czytnik, co pozwala zagrać w grę w wirtualnej rzeczywistości za pomocą mózgu, bez użycia rąk czy głosu, z wykorzystaniem do tego różnych metod obsługi jednocześnie. Używamy więc razem umysłu, głosu i gestów – tłumaczy Sune Alstrup.
Urządzenie umożliwia przełączanie kanałów telewizyjnych za pomocą umysłu, zmianę dźwięku czy wydawanie poleceń podczas gier. NextMind opracował też aplikację dla okularów rzeczywistości rozszerzonej. Wykorzystuje śledzenie wzroku, gesty i mowę w celu uzupełnienia sygnałów mózgowych.
– Będzie ono dostępne już niedługo, bo w drugim kwartale tego roku, za 399 dol. Jeśli ktoś posiada zestaw Oculus, będzie mógł tworzyć własną grę za pośrednictwem umysłu. To bardzo niedaleka przyszłość – przekonuje Sune Alstrup.
Interfejsy mózg–komputer pozwalają na coraz więcej. Ctrl-labs, nowojorski start-up, rozwija opaskę na rękę, która tłumaczy sygnały mięśniowo-mózgowe na polecenia interpretowane maszynowo. We wrześniu 2019 roku firmę przejął Facebook. Zespół naukowców z Carnegie Mellon University, we współpracy z University of Minnesota, korzystając z nieinwazyjnego interfejsu tego typu, opracował pierwsze w historii sterowane umysłem ramię robota. Dotychczas kontrola była możliwa tylko dzięki implantom. W przyszłości interfejs mózg–komputer mógłby zastąpić uwierzytelnianie za pomocą tradycyjnych haseł.
– Przez następne lata będziemy obserwować, jak technologia zmienia swoje zastosowania, zaczynając od sterowania telewizorem, a kończąc na byciu nieodłączną częścią naszej interakcji z urządzeniami – ocenia Sune Alstrup. – Sądzimy, że urządzeń z wbudowanym interfejsem będzie coraz więcej. Klienci będą potrzebowali różnych sposobów interakcji z takimi urządzeniami i będzie to możliwe dzięki interfejsowi mózg–komputer.