TikToxic - Denken KI & Algorithmen männlich? (feat. Philipp)

Shownotes

Hallo liebe Hörys,

wir haben unseren ersten männlichen Podgast zu Besuch. Heute begeben wir uns in das Feld der künstlichen Intelligenz und haben uns dafür Philipp von Capgemini Invent eingeladen. Er arbeitet als Data & AI Consultant und hat seine Masterarbeit über den ethischen Einsatz von KI in Unternehmen geschrieben. Wir machen ein Life-Experiment mit ChatGPT und schauen, wo nutzen wir alle KI im Alltag und warum geht uns das Thema KI-Bias auch irgendwie was an. Wir haben super viel gelernt und hoffen ihr könnt auch interessante Inhalte aus dieser Folge mitnehmen. Wie sieht eigentlich euer Feed so aus und schafft ihr es aus Eurer Bubble? Schreibt uns doch gerne!

GaLiGrü, Julie & Nadine

wichtige Begriffserklärungen diese Folge:

Künstliche Inteligenz (KI): KI-Systeme sind von Menschen entwickelte Software- oder Hardwaresysteme, welche ihre Umgebung durch Datenerfassung wahrnehmen und die gesammelten Daten verarbeiten. Durch die so gewonnenen Informationen treffen die KI-Systeme Entscheidungen. Die Verhaltensweise eines KI-Systems ist aufgrund seiner Komplexität für den Menschen jedoch oft nicht ohne Weiteres nachvollziehbar. Deswegen spricht man hier von einer sogenannten “Black Box”.

Algorithmus: Der Begriff Algorithmus umfasst heute ein breites Spektrum von Verfahren der Mathematik und Informatik. Dementsprechend ist eine Definition immer sehr allgemein gehalten und liest sich je nach Quelle etwas anders. Grundsätzlich ist ein Algorithmus ein formal festgelegtes Verfahren, mit dem eine definierte Aufgabe nach einem strukturierten Schema gelöst wird. In der Regel gibt es einen Eingabewert, der in einen Ausgabewert umgewandelt wird. Meist erfolgt dieser Vorgang schrittweise, wobei ein einfacher funktionaler Algorithmus auch aus nur einem (Rechen-)Schritt bestehen kann. (https://datasolut.com/wiki/was-ist-ein-algorithmus/)

KI-Bias: KI-Bias, auch maschinelles Lernen-Bias oder Algorithmus-Bias genannt, bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen und potenziell schädlichen Ergebnissen führt. Bias verringert die Genauigkeit der KI und damit ihr Potenzial.

KI-Governance: Governance im Bereich der künstlichen Intelligenz (KI) bezieht sich auf die Leitplanken, die gewährleisten, dass KI-Tools und -Systeme sicher und ethisch vertretbar sind und bleiben. Sie legt die Rahmenbedingungen, Regeln und Standards fest, die die KI-Forschung, -Entwicklung und -Anwendung steuern, um Sicherheit, Fairness und Achtung der Menschenrechte zu gewährleisten. (https://www.ibm.com/de-de/topics/ai-governance)

Compliance: (dt. Regelkonformität) Compliance bezieht sich darauf, dass Mitarbeiter gesetzliche Vorschriften, interne Richtlinien und ethische Standards eines Unternehmens einhalten. Eine Compliance kann sowohl gesetzliche Anforderungen als auch freiwillige unternehmensinterne Vorgaben umfassen. Um diese einzuhalten oder Verstöße frühzeitig aufzudecken, sind regelmäßige interne Kontrollen notwendig. (https://www.hrworks.de/lexikon/compliance/)

Machine Learning: Maschinelles Lernen (Machine Learning, ML) ist ein Teilbereich der Künstlichen Intelligenz, der Systeme in die Lage versetzt, automatisch aus Erfahrungen (Daten) zu lernen und sich zu verbessern, ohne explizit programmiert zu sein. (https://datasolut.com/was-ist-machine-learning/) Blackbox: Eine Black Box ist eine Künstliche Intelligenz (KI), deren innere Abläufe nicht nachvollziehbar oder kaum erklärbar sind. Der Benutzer sieht die Ein- und Ausgaben der KI, weiß aber nicht, wie und warum die Ergebnisse zustande gekommen sind. Das Gegenteil einer Black-Box-KI ist die erklärbare KI. (https://www.bigdata-insider.de/was-ist-eine-black-box-a-9d64b128e437b6a727849cf82695dbe9/)

Human-in-the-Loop: Als "Human in the Loop" wird eine Person bezeichnet, deren Aufgabe es ist, eine künstliche Intelligenz zu trainieren und zu testen. (https://praxistipps.chip.de/human-in-the-loop-begriff-einfach-erklaert_163787)

FemTech: Der Begriff „Femtech“ (oder auch female technology) beschreibt Technologien – sowohl Software als auch sonstige Produkte – die auf die Frauengesundheit zugeschnitten sind. Darunter können sowohl Medizinprodukte und In-vitro-Diagnostika fallen als auch Lifestyle-Produkte. Beispielsweise werden Fruchtbarkeits-Tracker, Endometriose-Apps, Tampons zur Analyse von Menstruationsblut und BHs, die mit Sensoren zur Messung von kardiologischen Parametern ausgestattet sind, zu Femtech gezählt. (https://www.taylorwessing.com/de/insights-and-events/insights/2024/06/femtech-was-ist-das)

Event- & Mediatipps:

https://calendar.google.com/calendar/u/0/embed?src=vielbunt.org_9dumkl9hgmdsf22bvi3vb7du78@group.calendar.google.com&ctz=Europe/Berlin

13.12 19-21 Uhr Vielbunt Weihnachtsmarkt - Schlossplatz - ANSCHLUSS Queerbar ab 21 Uhr - Schlosskeller

Film-Tipp: Hidden Figures - Unerkannte Heldinnen

Podcast-Tipp: KI verstehen - Funk

Buchtipp: Nexus - Yuval Harrari; Zero - Mark Elsberg

Instagram/Tiktok: wastarasagt

weiterführende Links: Grundlagen: https://bias-and-fairness-in-ai-systems.de/grundlagen/ KI-Bias: https://www.ibm.com/de-de/topics/ai-bias Male-Bias-Experiment TU/JMU: https://www.uni-wuerzburg.de/aktuelles/einblick/single/news/experiment-male-bias-durch-generisches-maskulinum/; https://online.ucpress.edu/collabra/article/8/1/32964/120263/Ladies-First-or-Ladies-Last-Do-Masculine-Generics KI-Governance: https://www.ibm.com/think/topics/shedding-light-on-ai-bias-with-real-world-examples FemTech/Beispiel Apple Card/Bumble: https://www.deutschlandfunkkultur.de/femtech-wie-feministinnen-das-internet-neu-erfinden-wollen-100.html sexistischer Algorithmus Twitter: https://www.zeit.de/campus/2021-09/social-media-algorithmen-diskriminierung-rassismus-kuenstliche-intelligenz-twitter

Der mitgemeint Podcast wird gefördert durch das Projekt "gendergerecht" der Hochschule Darmstadt & das gFFZ Frankfurt:

https://gleichstellung.h-da.de/gleichstellungsbuero/projekte/verankerung-von-gleichstellung-an-der-h-da/ideenwettbewerb-gendergerecht/

https://www.gffz.de/mediathek?type=rau%27nvOpzp%3B%20AND%201%3D1%20OR%20%28%3C%27%22%3EiKO%29%29%2C%2Ffileadmin%2Fuser_upload%2FGender_und_Nachhaltigkeit_Ringvorlesung_gFFZ.pdf

Danke an das edt.-Team des Fachbereichs Architektur, dass ihr uns euer Aufnahmestudio zur Verfügung stellt!

Email: mitgemeintpodcast@gmail.com

Instagram: podcast_mitgemeint

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.