Die Convention KI & Wir aus 2 Perspektiven

26.11.2019 -  

Am vergangenen Wochenende fand die erste Convention zum Thema künstliche Intelligenz in der Festung Mark in Magdeburg statt. Unter den zahlreichen Referent*innen aus Wissenschaft und Praxis wurde die Fakultät durch Jun.-Prof. Ingo Siegert und Dr.-Ing. Mathias Magdowski vertreten. Jeder für sich hat dabei die Convention auf unterschiedliche Art und Weise erlebt, welche nachfolgend beschrieben sind.

 Smarti-Bot von Dr.-Ing. Mathias Magdowski

Unter dem Motto "Künstliche Intelligenz selbst im Griff und selbst gesteuert" konnten Besucher*innen der KI-Convention im Rahmen einer Mitmachwerkstatt am Stand des Lehrstuhls für EMV bei Dr.-Ing. Mathias Magdowski einen Smartibot ausprobieren, steuern und programmieren. Der Smartibot ist ein kleiner fahrbarer Roboter, dessen Körper hauptsächlich aus Pappe besteht und der per Bluetooth gesteuert werden kann. Dieser Roboter ist kommerziell erhältlich und wird im Rahmen von Workshops für SchülerInnen und in MINT-Studienwerbeaktionen an der OVGU eingesetzt.

Zunächst konnten die Besucher*innen den Roboter mit Hilfe einer einfachen Controller-Oberfläche auf einem Tablet selbst wie ein ferngesteuertes Auto steuern, um ein Gefühl für dessen Fahreigenschaften zu bekommen.

Stand Smartibot (5 Bilder)
  Ki und Wir Smartibot B01 (Bild 1 von 5) Vorwärts »
« Zurück Ki und Wir Smartibot B02 (Bild 2 von 5) Vorwärts »
« Zurück Ki und Wir Smartibot B03 (Bild 3 von 5) Vorwärts »
« Zurück Ki und Wir Smartibot B04 (Bild 4 von 5) Vorwärts »
« Zurück Ki und Wir Smartibot B05 (Bild 5 von 5)  


Das konnten sogar schon die kleinsten Besucher*innen der Convention selbst ausprobieren.

Wirklich “smart” wird der Roboter aber erst durch ein Smartphone und dessen Kamera, das der Roboter wie einen Rucksack huckepack trägt und das ihm als “Gehirn” und “Auge” dient. Mittels künstlicher Intelligenz kann er dann z.B. Personen, Tiere, Fahrzeuge, Lebensmittel, Spielzeuge und Alltagsgegenstände erkennen. Das funktioniert für viele Gegenstände sehr zuverlässig, z.B. für ein Handy oder eine Flasche. Die jeweilige Sicherheit der Erkennung wird als Prozentwert angezeigt.

Smartibot Gegenstandserkennung positiv (4 Bilder)
  Smartibot Gegenstandserkennung positiv B01 (Bild 1 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung positiv B02 (Bild 2 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung positiv B03 (Bild 3 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung positiv B04 (Bild 4 von 4)  


Man sieht aber auch schnell die Grenzen der Bilderkennung durch künstliche Intelligenz, denn was das künstliche neuronale Netz nicht gelernt hat, kann es auch nicht erkennen bzw. liegt dann grandios falsch. Eine Kabeltrommel wird so z.B. auch als Computermaus, Vogel, Person oder Baseballhandschuh erkannt. Hier wird auch der gesellschaftliche Aspekt des verwendeten Trainingsdatensatzes sichtbar, der eindeutig aus der nordamerikanischen Gesellschaft stammt, in der Baseball viel populärer als in der westeuropäischen Kultur ist.

Smartibot Gegenstandserkennung negativ (4 Bilder)
  Smartibot Gegenstandserkennung negativ B01 (Bild 1 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung negativ B02 (Bild 2 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung negativ B03 (Bild 3 von 4) Vorwärts »
« Zurück Smartibot Gegenstandserkennung negativ B04 (Bild 4 von 4)  

 

Durch die Bilderkennung und mittels entsprechender Programmierung kann der Roboter nun etwa einer Person hinterherfahren, einem Hund davonfahren oder einen Gegenstand von einem Ort zum anderen transportieren. Die eigentliche Programmierung erfolgt dann quelltextbasiert in Java-Script oder auch grafisch über Blöcke. Das folgende Programm, das eine 14-jährige Schülerin während der Convention mit etwas Hilfe in einer 20 min erstellt hat, ändert z.B. die Farbe der leuchtenden Augen des Smartibots und lässt den Roboter dann ein Rechteck abfahren.

Der Mitmach-Stand war aufgrund des niederschwelligen Zugangs jederzeit gut besucht und warf bei den Besucher*innen viele Fragen auf. Am Sonntag wurde Mathias Magdowski bei der Standbetreuung auch tatkräftig von Medizintechnik-Studentin Darya bei der Vorstellung und Erklärung des Smartibots unterstützt.

Außerdem nahm Dr.-Ing. Mathias Magdowski am Sonntag zusammen mit Prof. Dr. Julia Arlinghaus vom Fraunhofer IFF Magdeburg, Simon Grambau vom Science2public e.V. Halle/Saale und Prof. Dominik Schumacher von der Hochschule Magdeburg-Stendal beim Talk am Mittag zum Thema "KI und Wir*– in Theorie und Praxis. Was läuft bei uns in der Region?" teil. Im Gespräch ging es um die Aktivitäten in Magdeburg und Halle, MINT und Gender sowie die regionale und internationale Vernetzung.

 

 Sprachassistenz mit Alexa von Jun.-Prof. Ingo Siegert

Auf der KI-Convention haben Jun.-Prof. Dr.-Ing Ingo Siegert und Dr. phil. Julia Krüger eine Mitmachwerkstatt unter dem Motto "Wie finden wir es, wenn Maschinen uns Persönliches fragen?" angeboten. Die Idee hierbei war es, den BesucherInnen die Möglichkeit zu geben in einer Interaktion mit dem Sprachassistenten Alexa herauszufinden, welcher Idealtyp sie in einem Kennenlerngespräch sind. Hierzu haben wir extra für die Convention einen Alexa-Skill entwickelt, der mit Nutzern ein Kennenlerngespräch durchführt und hier nach persönlichen Details wie Alter, Geschlecht und Familienstand, aber auch nach guten bzw. schlechten Erlebnissen im Alltag und mit technischen Geräten fragt. In einem anschließenden Gespräch mit Julia Krüger wurde diese Interaktion dann analysiert und über den jeweiligen Nutzertypen aufgeklärt.

Sprachassistent Alexa (3 Bilder)
  Sprachassistenz Alexa B01 (Bild 1 von 3) Vorwärts »
« Zurück Sprachassistenz Alexa B02 (Bild 2 von 3) Vorwärts »
« Zurück Sprachassistenz Alexa B03 (Bild 3 von 3)  

 

Für uns war diese Mitmachwerkstatt sehr spannend, da wir uns im Vorhinein die Frage gestellt haben, ob sich BesucherInnen überhaupt bereiterklären, an diesem Experiment mitzumachen. Auch wir wussten vorher nicht, wie diese Interaktion mit Alexa wirkt. Eine Schwierigkeit hierbei war es nämlich Alexa dazu zu bekommen, solch ein Gespräch überhaupt zu führen, da bisherige Assistenten gar nicht dafür entwickelt sind solche Gespräche zu führen. Daher war es schon spannend zu sehen, wie sich Alexa bei der Interaktion schlägt. Unser Trick hierbei war es, dass Alexa die Kennenlernfragen in einer festen Reihenfolge abarbeitet und nur bei einigen Fragen nachhakt, wenn BesucherInnen zu wenig gesagt haben. Mit anderen Worten könnte man sagen, dass das System gar nicht wirklich intelligent war.

Sehr interessant für uns sind natürlich die Zuschreibungen an das System und auch die Einschätzung der Interaktion. Wir hatten hierbei eine sehr breite Bandbreite von BesucherInnen, von typischen "TotalverweigerInnen" bis in zu "VielnutzerInnen" von Alexa, Siri und Co. Alle BesucherInnen fanden diese Mitmachwerkstatt sehr spannend und interessant. Wir haben die KI-Convention auch gleich genutzt, um Interaktionsdaten für weitere Forschungen zu erheben. Eine detaillierte Analyse erfolgt demnächst. Soviel können wir aber schon verraten: Die Interaktion mit Alexa wurde teilweise als unpersönlich und einschüchternd wahrgenommen. Einige BesucherInnen haben in dem System aber auch menschliche Züge gesehen.

Die Mitmachwerkstatt war sehr gut besucht, viele haben uns extra aufgrund unserer Programmankündigung aufgesucht. Es haben sich teilweise lange Wartezeiten ergeben, die aber durch vielfältige Diskussionen über das Für und Wider von Sprachassistenten sehr gut überbrückt werden konnten.

Außerdem war auf der KI-Convention auch das schon von der MS Wissenschaft bekannte Quiz mit den Alexa-Telefonjoker von Jun.-Prof. Dr.-Ing. Ingo Siegert ausgestellt. Auch dieses Exponat widmet sich eher den Unzulänglichkeiten heutiger intelligenter Assistenten und hat spielerisch aufgezeigt, wie schwierig es ist, von Alexa korrekte Antworten zu bekommen. Auch hier was die einhellige Meinung vieler BesucherInnen, dass Alexa eher nicht als Telefonjoker bei Günther Jauch dient, obwohl die Idee anfangs viele begeistert hatte.

Letzte Änderung: 20.01.2020 - Ansprechpartner: Webmaster