Brain Computer Interface ermöglicht Menschen mit Behinderung das autonome Fahren

Wie können Menschen mit Behinderung ein autonom fahrendes Auto bedienen? Cornelia Engel entführt uns in eine nicht so ferne Zukunft, in der wir dank Brain Computer Interface durch Gedanken Befehle geben können.

03.07.2019 Lesezeit: 5 min

Frau hält gläsernes Modell eines menschlichen Kopfes

Ein dunkler Raum. Ein Bildschirm. Und Cornelia, deren Kopf ein futuristisches Headset ziert. Der Blick höchst konzentriert, ihre Augen durchdringen förmlich das Display. Ein Punkt huscht über den Bildschirm. Plötzlich beginnt wie aus dem Nichts Musik zu spielen. Was ist passiert? War das ein Trick? Nein! Cornelia hat die Musik gestartet – und zwar einzig und allein mit der Kraft ihrer Gedanken. Wie hat sie das geschafft? Dazu spulen wir die Zeit zurück: Begonnen hat alles mit Cornelias Cousin Markus Burkhart, der vor mehreren Jahren an Multipler Sklerose erkrankt und mittlerweile vom Kopf ab gelähmt ist. Trotz dieser Einschränkung führt er noch immer seine Kfz-Werkstatt – mithilfe von Eye-Tracking und speziellen Computerprogrammen erledigt er die administrativen Tätigkeiten. Das ist zwar mühsam und zeitaufwändig, aber es funktioniert.

Brain Computer Interface im Auto: Mit dem Audi Aicon wird die Vision zur Realität

„Ich finde es faszinierend, ihm dabei zuzusehen“, erklärt Cornelia. „Markus würde alles dafür geben, wieder mit einem Auto fahren zu können und unabhängig zu sein. Ich überlegte, ob man ein Auto mit integriertem Eye-Tracking-System in Kombination mit einem Brain Computer Interface für ihn bedienbar machen könnte.“ Damit war das Thema ihrer Abschlussarbeit bei Audi im Bereich Design Interieur Interface gefunden.
 

Während ihres Studiums an der Mediadesign Hochschule in München hat Cornelia Engel dann das Brain Computer Interface (BCI) von EMOTIV kennengelernt. Diese „Gehirn-Computer-Schnittstelle“ ermöglicht kognitiv wie motorisch eingeschränkten Personen, über mentale Befehle mit ihrer Umwelt zu kommunizieren. Das mobile EEG-Gerät registriert dabei die elektrischen Aktivitäten der Nervenzellen. Ein Computer übersetzt diese Signale dann in Kommandos und gibt sie an ein Gerät weiter – beispielsweise an ein Computerprogramm, einen Rollstuhl, einen Lichtschalter oder eben auch ein Auto.

Mit diesem Ansatz, Hirnströme zu messen und Gedanken in Aktionen zu übersetzen, optimiert Cornelia nicht nur die Bedienbarkeit, sondern macht auch das autonome Fahren für mehr Menschen zugänglich. Gerade körperlich beeinträchtigte Menschen wie ihr Cousin können davon profitieren.

 

Denn bisher sieht die Realität so aus: In dem autonomen Konzeptauto Audi Aicon, das auf der IAA 2017 vorgestellt wurde, oder seinem Nachfolger Audi AI:ME bedient der Passagier die grafische Oberfläche neben Touch- und Sprachsteuerung mit einem Eye-Tracking-System. Mehrere Infrarotsensoren erkennen dabei, auf welchen Bereich des Displays er blickt; die dort gezeigte Funktion wird daraufhin größer dargestellt. Um sie zu aktivieren, tippt der Passagier mit dem Finger auf die berührungssensitive Holzblende. Doch tippen kann Markus ja nicht mehr. Die Lösung ist das Brain Computer Interface.

Markus würde alles dafür geben, wieder mit einem Auto fahren zu können und unabhängig zu sein.

Cornelia Engel

Wie sich mit dem Brain Computer Interface Gedanken kontrollieren lassen

So die Theorie. Wie schwierig das Ganze in der Praxis funktioniert, erzählt Cornelia: „Ich habe einen Befehl – das Tippen – in etwa zwei Wochen erlernt.“ Das dauert so lang, weil das BCI für den Nutzer erst kalibriert werden muss, was große Übung und höchste Konzentration erfordert. Damit ein klares Signal entstehen kann, muss eine prägnante und stabile Vorstellung zustande kommen. Cornelia vergleicht diesen Vorgang mit dem Prozess eines Babys, das greifen oder sprechen lernt.

 

Im ersten Schritt hat sie zu meditieren begonnen, damit ihre Hirnaktivitäten ruhig und ausgeglichen sind. Denn nur so konnte sie im zweiten Schritt die Ausschläge bzw. Impulse diesem Befehl zuordnen. „Ich stelle mir dabei vor, dass ich ‚nach vorne‘ singe – das ist mein Impuls, mit dem ich den Befehl ‚Tippen‘ ausführen kann“, erklärt Cornelia. „Das funktioniert aber bei jedem anders. Mein Freund hat zum Beispiel an die Farbe Grün gedacht.“

 

Um Eye-Tracker und Brain Computer Interface im Interieur eines Autos nutzen zu können, müssen beide Systeme in das Graphic User Interface (GUI) von Audi eingebunden sein. Und das hat Cornelia in ihrer Bachelorarbeit umgesetzt. Dafür hat sie sieben Befehle entwickelt und grafisch wie konzeptionell verarbeitet: links, rechts, oben, unten, im und gegen den Uhrzeigersinn drehen und das Tippen.

Brain Computer Interface: Mentale Befehle „irgendwann wie Fahrradfahren“

Damit dies alles funktioniert, müssen pro Befehl andere Gehirnbereiche stimuliert werden. Unterschiedliche Befehle direkt hintereinander anzusteuern, erfordert höchste Konzentration. „Aber, wenn das in Fleisch und Blut übergegangen ist, ist es wie Fahrradfahren“, meint Cornelia.

 

Einmal erlernt, besitzt das Brain Computer Interface eine hohe Bediensicherheit. Wird dieses System noch zusätzlich mit einem Eye-Tracker verknüpft, muss nicht abgewartet werden bis das gewünschte Bedienfeld aufleuchtet, sondern es kann gezielt und sofort anvisiert werden. Das erhöht die Schnelligkeit in der Bedienung. Genau die richtige User Experience für Menschen mit motorischer Einschränkung.

Der WOW-Effekt: So wird Markus trotz Behinderung wieder mobil

Das Brain Computer Interface würde herausragende neue Möglichkeiten für Cornelias Cousin Markus schaffen. Ein Beispiel aus dem Alltag: Er bestellt via App und Eye-Tracking einen Audi zu sich nach Hause. Mit dem BCI steuert er seinen Rollstuhl. Das Auto erkennt sein Smartphone via Bluetooth, öffnet die Tür, lässt die Rampe herunter und die Sitze klappen nach hinten, damit Markus hineinfahren kann. Er wird von PIA, dem individuellen Sprachassistenten von Audi, begrüßt. Die Klimaanlage stellt sich auf sein Lieblingsambiente ein. Währenddessen verknüpft sich seine Gehirn-Computer-Schnittstelle mit dem Audi, damit er die Anwendungen auf dem Display steuern kann. Musikauswahl, Lautstärke, sogar ein Zwischenstopp wird so möglich. Wenn er dann an seinem Zielort ankommt, öffnen sich die Türen, die Rampe fährt aus und Markus kann herausfahren.

 

Eine Zukunftsvision? Bisher schon. Denn bis dies Realität werden kann, muss noch einiges geschehen: zum Beispiel Workshops, um die Befehle zu erlernen, eine noch ausgereiftere Technik und natürlich muss die rechtliche Situation geklärt werden. Aber der Anfang ist gemacht. Und das würde mehr Lebensqualität für Markus und viele andere Menschen mit Behinderung bedeuten – allein durch die Kraft der Gedanken und Cornelias Arbeit.

Audi AI:CON

Konzeptfahrzeuge

Audi AI:CON

Designstudie, Technikträger, Mobilitätskonzept: Mit beispielloser Konsequenz schöpft der Audi AI:CON alle Möglichkeiten einer autonomen Luxuslimousine der Zukunft aus.

Mehr erfahren

Diese Website verwendet Cookies. Indem Sie die Website und ihre Angebote nutzen und weiter navigieren, akzeptieren Sie diese Cookies. Diese können Sie in Ihren Browsereinstellungen ändern.