TikToxic - Denken KI & Algorithmen männlich? (feat. Philipp)
Shownotes
Hallo liebe Hörys,
wir haben unseren ersten männlichen Podgast zu Besuch. Heute begeben wir uns in das Feld der künstlichen Intelligenz und haben uns dafür Philipp von Capgemini Invent eingeladen. Er arbeitet als Data & AI Consultant und hat seine Masterarbeit über den ethischen Einsatz von KI in Unternehmen geschrieben. Wir machen ein Life-Experiment mit ChatGPT und schauen, wo nutzen wir alle KI im Alltag und warum geht uns das Thema KI-Bias auch irgendwie was an. Wir haben super viel gelernt und hoffen ihr könnt auch interessante Inhalte aus dieser Folge mitnehmen. Wie sieht eigentlich euer Feed so aus und schafft ihr es aus Eurer Bubble? Schreibt uns doch gerne!
GaLiGrü, Julie & Nadine
wichtige Begriffserklärungen diese Folge:
Künstliche Inteligenz (KI): KI-Systeme sind von Menschen entwickelte Software- oder Hardwaresysteme, welche ihre Umgebung durch Datenerfassung wahrnehmen und die gesammelten Daten verarbeiten. Durch die so gewonnenen Informationen treffen die KI-Systeme Entscheidungen. Die Verhaltensweise eines KI-Systems ist aufgrund seiner Komplexität für den Menschen jedoch oft nicht ohne Weiteres nachvollziehbar. Deswegen spricht man hier von einer sogenannten “Black Box”.
Algorithmus: Der Begriff Algorithmus umfasst heute ein breites Spektrum von Verfahren der Mathematik und Informatik. Dementsprechend ist eine Definition immer sehr allgemein gehalten und liest sich je nach Quelle etwas anders. Grundsätzlich ist ein Algorithmus ein formal festgelegtes Verfahren, mit dem eine definierte Aufgabe nach einem strukturierten Schema gelöst wird. In der Regel gibt es einen Eingabewert, der in einen Ausgabewert umgewandelt wird. Meist erfolgt dieser Vorgang schrittweise, wobei ein einfacher funktionaler Algorithmus auch aus nur einem (Rechen-)Schritt bestehen kann. (https://datasolut.com/wiki/was-ist-ein-algorithmus/)
KI-Bias: KI-Bias, auch maschinelles Lernen-Bias oder Algorithmus-Bias genannt, bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen und potenziell schädlichen Ergebnissen führt. Bias verringert die Genauigkeit der KI und damit ihr Potenzial.
KI-Governance: Governance im Bereich der künstlichen Intelligenz (KI) bezieht sich auf die Leitplanken, die gewährleisten, dass KI-Tools und -Systeme sicher und ethisch vertretbar sind und bleiben. Sie legt die Rahmenbedingungen, Regeln und Standards fest, die die KI-Forschung, -Entwicklung und -Anwendung steuern, um Sicherheit, Fairness und Achtung der Menschenrechte zu gewährleisten. (https://www.ibm.com/de-de/topics/ai-governance)
Compliance: (dt. Regelkonformität) Compliance bezieht sich darauf, dass Mitarbeiter gesetzliche Vorschriften, interne Richtlinien und ethische Standards eines Unternehmens einhalten. Eine Compliance kann sowohl gesetzliche Anforderungen als auch freiwillige unternehmensinterne Vorgaben umfassen. Um diese einzuhalten oder Verstöße frühzeitig aufzudecken, sind regelmäßige interne Kontrollen notwendig. (https://www.hrworks.de/lexikon/compliance/)
Machine Learning: Maschinelles Lernen (Machine Learning, ML) ist ein Teilbereich der Künstlichen Intelligenz, der Systeme in die Lage versetzt, automatisch aus Erfahrungen (Daten) zu lernen und sich zu verbessern, ohne explizit programmiert zu sein. (https://datasolut.com/was-ist-machine-learning/) Blackbox: Eine Black Box ist eine Künstliche Intelligenz (KI), deren innere Abläufe nicht nachvollziehbar oder kaum erklärbar sind. Der Benutzer sieht die Ein- und Ausgaben der KI, weiß aber nicht, wie und warum die Ergebnisse zustande gekommen sind. Das Gegenteil einer Black-Box-KI ist die erklärbare KI. (https://www.bigdata-insider.de/was-ist-eine-black-box-a-9d64b128e437b6a727849cf82695dbe9/)
Human-in-the-Loop: Als "Human in the Loop" wird eine Person bezeichnet, deren Aufgabe es ist, eine künstliche Intelligenz zu trainieren und zu testen. (https://praxistipps.chip.de/human-in-the-loop-begriff-einfach-erklaert_163787)
FemTech: Der Begriff „Femtech“ (oder auch female technology) beschreibt Technologien – sowohl Software als auch sonstige Produkte – die auf die Frauengesundheit zugeschnitten sind. Darunter können sowohl Medizinprodukte und In-vitro-Diagnostika fallen als auch Lifestyle-Produkte. Beispielsweise werden Fruchtbarkeits-Tracker, Endometriose-Apps, Tampons zur Analyse von Menstruationsblut und BHs, die mit Sensoren zur Messung von kardiologischen Parametern ausgestattet sind, zu Femtech gezählt. (https://www.taylorwessing.com/de/insights-and-events/insights/2024/06/femtech-was-ist-das)
Event- & Mediatipps:
13.12 19-21 Uhr Vielbunt Weihnachtsmarkt - Schlossplatz - ANSCHLUSS Queerbar ab 21 Uhr - Schlosskeller
Film-Tipp: Hidden Figures - Unerkannte Heldinnen
Podcast-Tipp: KI verstehen - Funk
Buchtipp: Nexus - Yuval Harrari; Zero - Mark Elsberg
Instagram/Tiktok: wastarasagt
weiterführende Links: Grundlagen: https://bias-and-fairness-in-ai-systems.de/grundlagen/ KI-Bias: https://www.ibm.com/de-de/topics/ai-bias Male-Bias-Experiment TU/JMU: https://www.uni-wuerzburg.de/aktuelles/einblick/single/news/experiment-male-bias-durch-generisches-maskulinum/; https://online.ucpress.edu/collabra/article/8/1/32964/120263/Ladies-First-or-Ladies-Last-Do-Masculine-Generics KI-Governance: https://www.ibm.com/think/topics/shedding-light-on-ai-bias-with-real-world-examples FemTech/Beispiel Apple Card/Bumble: https://www.deutschlandfunkkultur.de/femtech-wie-feministinnen-das-internet-neu-erfinden-wollen-100.html sexistischer Algorithmus Twitter: https://www.zeit.de/campus/2021-09/social-media-algorithmen-diskriminierung-rassismus-kuenstliche-intelligenz-twitter
Der mitgemeint Podcast wird gefördert durch das Projekt "gendergerecht" der Hochschule Darmstadt & das gFFZ Frankfurt:
Danke an das edt.-Team des Fachbereichs Architektur, dass ihr uns euer Aufnahmestudio zur Verfügung stellt!
Email: mitgemeintpodcast@gmail.com
Instagram: podcast_mitgemeint
Neuer Kommentar