Hallo! Mensch an Maschine
Wie sollten interaktive Systeme gestaltet sein? Wie ergänzen sie menschliche Stärken, wie kompensieren sie Schwächen? Mit Fragen wie diesen beschäftigt sich die Mensch-Computer-Interaktion, kurz MCI. MCI erforscht, gestaltet und bewertet die Wechselbeziehung zwischen Mensch und Computer.
Tastatur, Maus, Joystick, Sprache und Gestik helfen dem Menschen, mit dem Computer zu kommunizieren. Dieser verarbeitet die eingegebenen Informationen und gibt eine Rückmeldung. Wie alltagstauglich die Interaktion mit dem Computer ist – heute „Usability“ genannt – bemisst sich an der Effektivität, der Effizienz sowie der Zufriedenheit des Anwenders.
Anhand dieser drei Faktoren kann gemessen werden, ob das interaktive System den Menschen darin unterstützt, sein Vorhaben genauer und vollständiger umzusetzen, welche Ressourcen er dafür einsetzen muss und wie seine innere Haltung bezüglich der Nutzung ist.
Meilensteine der Mensch-Computer-Interaktion:
Das Gedächtnis erweitern
Vannevar Bush war es, der sich Mitte der 1940er-Jahre erstmals Gedanken machte, wie Mensch und Computer miteinander interagieren müssten. Die damaligen Digitalrechner wurden konstruiert, um Daten hierarchisch zu organisieren. Dafür sortierten sie das gesammelte Wissen numerisch oder alphabetisch in Bibliotheken ein.
Dieses Vorgehen erschien Bush inkompatibel: „Das menschliche Gehirn funktioniert nicht auf diese Weise. Es arbeitet über Assoziationen“, schrieb er in seinem Artikel „As We May Think“, der 1945 in der Zeitschrift „The Atlantic Monthly“ erschien, und entwarf das Ideal der Memex-Maschine.
Bush stellte sich die Maschine als einen riesigen Datenspeicher vor. Handschriftliche Notizen, Akten oder Briefe sollten über eine Scan-Vorrichtung auf Mikrofilme übertragbar sein. Ein über die Tastatur aufrufbares Code-System sollte das Wiederauffinden abgespeicherter Information erleichtern und deren Projektion auf berührungssensitive Bildschirme erlauben. Auf diese Weise sollte die Maschine Informationen assoziativ verknüpfen und dem Anwender das Arbeiten mit dem Computer erleichtern.
Die Memex-Maschine wurde nie gebaut, aber die Idee des Hypertextes, der inhaltlichen Verkettungen von Texten untereinander, und die Idee von Wissensnetzwerken waren geboren. Sie inspirierten IT-Pioniere der 1960er-Jahre – darunter Ivan Sutherland und Douglas Engelbart.
Vorgänger des Digitalstifts
Sketchpad hieß das interaktive Zeichenprogramm, das Sutherland 1963 im Zuge seiner Doktorarbeit entwickelte: Anwender konnten es über Tastenfeld und Lichtgriffel bedienen, den Vorfahren des heutigen Digitalstifts. Mit Hilfe des Lichtgriffels ließen sich virtuelle Objekte in Sketchpad direkt verändern. Darüber hinaus wies das Zeichenprogramm bereits die ersten Konzepte objektorientierter Programmierung auf.
Objektorientiertes Programmieren (OOP) ist ein Programmiermodell: Während sich andere Modelle auf Funktionen und Logiken konzentrieren, stellt OOP die Objekte ins Zentrum, mit denen das Programm interagieren soll.
Die kollektive Intelligenz fördern
In einer spektakulären Präsentation demonstrierte Douglas Engelbart 1968 sein NLS („oN-Line System“), ein für die damalige Zeit revolutionäres Computersystem: Als erstes Programm überhaupt nutzte NLS eine Computermaus. Anwender konnten plötzlich Buchstaben, Wörter sowie ganze Textabschnitte mit wenigen Klicks kopieren und an anderer Stelle wieder einfügen. Erstmals waren direkte Textänderungen möglich. Mehrere Anwender konnten ein Dokument gleichzeitig und kollaborativ bearbeiten. Darüber hinaus griff Engelbart die Idee der vernetzten Dokumente von Vannevar Bush auf. Das machte Engelbarts NLS zu einem der frühesten Hypertextsysteme überhaupt.
Doch die eigentliche Intention Engelbarts war es, den menschlichen Intellekt zu steigern. Er wollte die kollektive Intelligenz fördern und es Menschen ermöglichen, gemeinsam globale Probleme zu lösen. Heute, gut 50 Jahre später, greift das Projekt Dynamicland diese Intention auf.
Computer ohne Gehäuse
Im kalifornischen Oakland bringt Dynamicland Programmierer mit Ingenieuren, Künstlern und Interessierten in einem Projektraum zusammen. Gemeinsam wollen sie ein neues Medium erschaffen: Anstatt vor dem Bildschirm zu sitzen und Code zu schreiben, arbeitet die Forschungsgruppe mit physischen Objekten und mit Farbpunkten markierten Papierbögen zum Anfassen.
Die Decke des 200 Quadratmeter großen Lofts schmücken zahlreiche Kameras. Sie erfassen jede Bewegung und senden die Informationen an einen Rechner. Hier übersetzt ein Programm die aufgenommenen Videodaten in Lichtprojektionen: Dreht oder schiebt ein Dynamicland-Besucher beispielsweise einen der Papierbögen, gehen Lichtkegel seine Bewegung mit. Der Besucher hat das Gefühl, dass der Raum auf seine Bewegung reagiert.
Indem Dynamicland Gegenstände, Projektoren und computergestützte Datenverarbeitung kombiniert, erschafft es einen Computer ohne Gehäuse. Es handelt sich um einen objektorientierten Raum, die physische Umsetzung objektorientierten Programmierens. Damit bildet Dynamicland einen Gegenpol zu virtuellen Konzepten.
So sieht es aus, wenn im Dynamicland Datensätze dargestellt werden:
Bewegen im fiktiven Raum
Konzepte wie beispielsweise Mark Zuckerbergs Metaverse möchten die reale Welt virtuell erweitern: Jeder soll sich immer und überall eine spezielle Brille auf die Nase setzen und sich durch eine virtuelle Welt bewegen können. Doch wie gut funktioniert VR heute?
Bislang sind die VR-Brillen noch recht unhandlich. Darüber hinaus klagen zwei Drittel aller VR-Spieler über Übelkeit, der sogenannten Visually Induced Motion Sickness (VIMS). VIMS entsteht durch einen sensorischen Konflikt: Das, was der Nutzer sieht, und das, was seine anderen Sinne wahrnehmen, stimmt nicht miteinander überein. Der Gleichgewichtssinn gerät ins Wanken: Visuell fährt der Nutzer Achterbahn, während er in Wirklichkeit fest im Sessel sitzt.
Mittel gegen Motion Sickness
Verschiedene Forschungsprojekte versuchen, das Problem zu lösen. So untersucht die Universität Hamburg das Nutzen einer virtuellen Nase. Diese könnte dem VR-Nutzer als visueller Referenzpunkt in seinem Blickfeld dienen. Erste Versuche brachten allerdings keine signifikanten Verbesserungen.
Fazit: Menschen haben schon viele Wege erkundet, um mit Maschinen zu interagieren – und sie werden damit nicht aufhören. Menschen brauchen eine Schnittstelle zur Technik, die ihren körperlichen und mentalen Voraussetzungen entspricht. Aber auch Faktoren wie zwischenmenschliche Kommunikation, Weiterentwicklung von kognitiven Fähigkeiten oder Produktivität in wirtschaftlichen Prozessen spielen eine große Rolle. Der Weg zu neuen Mensch-Computer-Interaktionen bleibt also spannend.
(Text: Sonja Koesling)
MEHR INPUT
- Das Projekt Dynamicland
Dynamicland - Weitere Beispiele für Human-Computer-Interaction
GetSmarter - Forschungsprojekte zu Human-Computer-Interaction an der Universität Hamburg
Universität Hamburg - Die Entstehung des QWERTZ-Layouts
HNF-Blog - Die Memex-Maschine
Webkompetenz - Was ist OOP?
Dev-Insider - Möglichkeiten des Metaverse
faz.net