Im Rahmen eines Seminar zur Zukunft der Arbeit und den Grenzen der Digitalisierung bei der IG Metall im Bildungszentrum Sprockhövel mit Arbeitnehmer*innen haben wir uns mit der sogenannten KI, künstlichen Intelligenz beschäftigt und den Begriff nicht nur entzaubert, sondern auch ganz praktisch die Grenzen, aber auch Möglichkeiten künstlicher Intelligenz ausgelotet.

Zu Beginn des Tages (ja, die hier vorgestellte Lerneinheit dauert mindestens einen Tag (7 Stunden), es kann aber auch als Steinbruch verstanden werden) haben wir als Warm Up auf iPads Montagsmaler gegen die KI gespielt. Dazu haben wir mehrere Teams gebildet. In einer Testrunde haben alle Teams die KI (Quickdraw with Google) kennengelernt, die versucht, die auf den Tablets gemalten Bilder zu erraten. Danach wurden 3 Runde gespielt, bei denen jeder im Team abwechselnd einmal malen musste. Insgesamt müssen in jeder Runde 6 Bilder gemalt werden, aber nicht alle werden von der KI erkannt. Je länger man mit der KI zusammenarbeitet, um so besser werden in der Regel die Erkennungsraten. Wenn die KI nicht erraten konnte, was gemalt wurde, kann man in der Ergebnisansicht auf das entsprechende Bild klicken und bekommt auch eine Erklärung die vermuten lässt, wie der Algorithmus funktioniert.

In der nachfolgenden Reflexion wird auch deutlich, wie wichtig es ist zu verstehen, auf welcher Basis die KI Entscheidungen trifft, um dann eben auch Fehlentscheidungen zu verstehen. Es zeigt aber auch, dass sich selten die KI an den Menschen anpasst, sondern wesentlich wahrscheinlicher und schneller sich der Mensch an die KI anpasst.

Anschließend habe ich in die Geschichte der KI (hier findet ihr die gesamte Präsentation, aber auch die 4 Folien zur Geschichte, bitte auch die Notizen mit den Links beachten) eingeführt, bzw. die Geschichte digitaler Automaten. Dabei kommt man natürlich nicht am Schachtürken (oder als Episode aus dem Podcast „Geschichten aus der Geschichte“) und auch nicht am Turing Test vorbei. Der Vortrag leitet über zu den Erkenntnissen eines Buches mit dem Titel Fake AI, es wurde vor kurzen auch bei Netzpolitik.org besprochen. Einen entsprechenden Vortrag gab es auch auf der Republica 2022 zum nachschauen:

Anschließend haben wir uns die verzweifelten Versuche angeschaut, wie eine KI versucht selber Texte zu schreiben, bzw. weiterzuschreiben mit einer Demo von Inferkit. Mit englischsprachigen Texten funktioniert es deutlich besser als mit deutschsprachigen Texten. Die Demo stützt einige der Thesen, die in dem Vortrag zu Fake AI aufgestellt werden:

  • Software wird „unpassenderweise für Probleme eingesetzt, die sie gar nicht lösen kann“ (Adeba Birhane, Cheap AI)
  • Opfer dieser halbgaren Ansätze sind häufig sozial Schwache und Angehörige ethnischer Minderheiten (Beispiel Gesichtserkennung)
  • Problem: widersprüchlichen Identitäten von Menschen in einfache Klassifikationen packen
  • Automatisierte Entscheidungen seien „schwierig zu prüfen, zu gewichten, und zu verstehen, sogar für die Entwickler:innen
  • KI Definition heute: Eine mathematische Methode, um Muster in Datensätzen zu finden, also ein anderes Wort für Statistik.

Mit der App Google Lens (Android, Apple) haben die Teilnehmenden auf Tablets experimentiert, in dem sie mit der Fotokamera Bilder machten und Google danach suchen ließen, von QR Codes, von Blumen und Bäumen, von Tieren, aber auch Menschen. Es war eine forschende Umgebung, bei der die Kolleg*innen untersuchte, was bei Bilderkennung gut funktioniert, was aber auch nicht. In der Nachbereitung haben wir gemeinsam geklärt, warum das so ist.

Zuletzt und damit haben wir sehr viel Zeit verbracht, haben wir die Gruppe in 4er Gruppen aufgeteilt und in die Webapp Teachable Machine eingeführt (dafür sind Laptops notwendig, die Webapp funktioniert nicht auf Tablets):

Der Auftrag war eine KI zu entwickeln, mit einer für sie sinnvollen Anwendung und anschließend ihre KI zu trainieren. Dazu werden mehrere Klassen definiert um unterschiedliche Erkennungszustände zu definieren. Also zum Beispiel Gesichter mit Maske als eine Klasse zu definieren und Gesichter ohne Maske als eine weitere Klasse zu definieren. Ausprobiert werden kann auch eine Klasse, bei der die Maske falsch aufgesetzt wird, indem zum Beispiel die Nase freigehalten wird. Anschließend werden gemäß der Klassen Gesichter fotografiert und in einer weiteren Phase der Algorithmus trainiert.

Es gibt mehrere Regler, an denen man den Algorithmus optimieren kann. Man kann die Epochen, die Batchgröße und die Lernraten verändern. Es ist in wenig Trial and Error, bis die Maschine das tut, was sie soll. Aber das macht die Teachable Machine ja auch so interessant für die erlebnisorientierte Medienbildung.

Abschließend mussten die einzelnen Gruppen ihre KIs der Gruppe in einer Art Pitch vorstellen. Es war also eingerahmt in eine kurze Präsentation und Demo der KI. Eines der schönsten Beispiele war eine KI, die erkennt, ob eine FFP2 Maske getragen wird oder nicht. Dazu mussten viele verschiedene Menschen aus unterschiedlichen Perspektiven mit und ohne Maske fotografiert werden. Je diverser der Datensatz um so besser funktioniert die anschließende Erkennung.

Es zeigt sich, dass alle KIs ihre Tücken haben und keine zu 100% funktionierte (noch nicht mal zu 80%). Diese Erkenntnis war am Ende auch die Grundlage über den Einsatz von KIs in der Arbeitswelt zu diskutieren. Wo kann eine solche Fehleranfälligkeit toleriert werden und wo nicht.

Weitergehende Materialien