2. Transparenz von KI-Systemen

Blackbox-Modelle "Across Domains"

Da wir nun ein besseres Verständnis dafür haben, welche Probleme Black-Box-Modelle mit sich bringen können, ist dies ein geeigneter Moment, um einige konkrete Beispiele und Herausforderungen zu beleuchten, die sich beim Einsatz solcher Modelle in verschiedenen Fachbereichen ergeben.


Wählen Sie unten einen Bereich aus, der Ihrem Fachgebiet am nächsten kommt, und erkunden Sie verschiedene Probleme in unterschiedlichen Domänen, bei denen der Einsatz von Black-Box-Modellen bedenklich sein kann.

Medizin

Trotz der vielversprechenden Möglichkeiten der KI im Gesundheitswesen bleibt ihr Potenzial bislang unausgeschöpft (Kelly et al., 2019). In einer Studie wurden Bilder von gutartigen Muttermalen als bösartig diagnostiziert, wenn die Bilder lediglich gedreht oder ein geringes Rauschen hinzugefügt wurde (Finlayson et al., 2019). Obwohl diese Fehler auf den ersten Blick geringfügig erscheinen mögen, sind sie schwer zu beheben, da Entwickler selbst kaum oder gar keine Kontrolle über die inneren Parameter (Gewichte) des KI-Modells haben, bedingt durch dessen Black-Box-Natur (Zhai et al., 2023). Obwohl solche Manipulationen (z. B. Drehungen und Rauschen) im Forschungskontext künstlich waren, wäre es schwierig, ein so sensibles Modell in der realen Welt einzusetzen.

Da Black-Box-Modelle Fehler machen können, die nicht nachvollziehbar sind – und im Gesundheitswesen potenziell über Leben und Tod entscheiden – ist es besonders wichtig, dass KI-Modelle in diesem Bereich so transparent und verantwortungsvoll wie möglich entwickelt und eingesetzt werden. Eine Überprüfung von Ciobanu-Caraus et al. (2024) unterstreicht zusätzliche Probleme: Die Hälfte der untersuchten Studien zum maschinellen Lernen im Gesundheitswesen basierte nicht auf öffentlich zugänglichen Daten, und nur ein Fünftel stellte den zugrunde liegenden Code zur Verfügung. Darüber hinaus nutzten mehr als drei Viertel der Studien Daten aus nur einer einzigen Einrichtung, was die Gefahr von Verzerrungen erhöht.

Literatur

  1. Kelly, C. J., Karthikesalingam, A., Suleyman, M., Corrado, G., & King, D. (2019). Key challenges for delivering clinical impact with artificial intelligence. BMC medicine, 17(1), 195. https://doi.org/10.1186/s12916-019-1426-2
  2. Finlayson, S. G., Bowers, J. D., Ito, J., Zittrain, J. L., Beam, A. L., & Kohane, I. S. (2019). Adversarial attacks on medical machine learning. Science (New York, N.Y.), 363(6433), 1287–1289. https://doi.org/10.1126/science.aaw4399
  3. Zhai, Z., Li, P. & Feng, S. State of the art on adversarial attacks and defenses in graphs. Neural Comput & Applic 35, 18851–18872 (2023). https://doi.org/10.1007/s00521-023-08839-9
  4. Ciobanu-Caraus, O., Aicher, A., Kernbach, J. M., Regli, L., Serra, C., & Staartjes, V. E. (2024). A critical moment in machine learning in medicine: on reproducible and interpretable learning. Acta neurochirurgica, 166(1), 14. https://doi.org/10.1007/s00701-024-05892-8

Wirtschaft
Apple Card, ein von Goldman Sachs betriebener Kreditservice, bietet angeblich unterschiedliche Kreditlimits je nach Geschlecht, obwohl das Finanzprofil ähnlich ist (Vigdor 2019). Bloomberg berichtete über ein krasses Beispiel (Natarajan und Nasiripour, 2019), bei dem ein Ehemann einen 20-mal höheren Kreditrahmen als seine Frau erhielt, obwohl seine Frau eigentlich eine höhere Kreditwürdigkeit hatte. Die BBC vermutete, dass der Algorithmus hinter der Apple Card mit voreingenommenen Daten trainiert wurde, wonach Frauen ein größeres finanzielles Risiko darstellen als Männer, und beschuldigte ihn, eine „Black Box“ zu sein, die nicht zeigt, wie der Kreditscore ermittelt wird. (BBC, 2019)

Ein ähnlicher Fall wurde bezüglich Amazons KI-Modell berichtet, das zur automatischen Einstellung von Mitarbeitenden eingesetzt wurde und ebenfalls Frauen gegenüber Männern diskriminierte (Dastin 2018). Nach langem Suchen fanden die Ingenieure und Ingenieurinnen heraus, dass die Ursache des Problems in den Trainingsdaten lag, die aus der Befragung des Unternehmens innerhalb eines Zeitraums von 10 Jahren stammten.


Die Black-box Natur einiger KI-Modelle wie DNNs (deep neural networks) erschwert die Lösung eines solchen Problems, da es schwierig ist zu wissen, welcher Aspekt oder welches Merkmal der Eingabe das Modell zu bestimmten Ergebnissen geführt hat, und es ist noch schwieriger, die inneren Parameter des Modells so einzustellen, dass solche Verhaltensweisen behoben werden. 

Literatur
  1. Vigdor, N. (2019, November 10). Apple card investigated after gender discrimination complaints. The New York Times. https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html 
  2. Natarajan, S., & Nasiripour, S. (2019, November 9). Goldman Sachs probed after viral tweet about Apple Card. Bloomberg.com. https://www.bloomberg.com/news/articles/2019-11-09/viral-tweet-about-apple-card-leads-to-probe-into-goldman-sachs 
  3. BBC. (2019, November 11). Apple’s “sexist” credit card investigated by US Regulator. BBC News. https://www.bbc.com/news/business-50365609 
  4. Dastin, J. (2018, October 11). Insight - Amazon scraps secret AI recruiting tool that showed bias against women | reuters. Reuters. https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/ 
  5. Ribeiro, M., Singh, S., & Guestrin, C. (2016). “Why should i trust you?”: Explaining the predictions of any classifier. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations. https://doi.org/10.18653/v1/n16-3020 
Chemie

Der NOMAD-Kaggle-Wettbewerb 2018 konzentrierte sich auf Modelle zur Vorhersage der Bildungsenergien transparenter leitfähiger Oxide (TCOs) (Sutton et al., 2019). Drei Teilnehmende erzielten führende Ergebnisse mit sehr geringem Abstand: die n-Gramm-Methode, die aus dem Bereich der Verarbeitung natürlicher Sprache (NLP) übernommen wurde (Sutton et al., 2019), Smooth Overlap of Atomic Positions (SOAP) (Bartók et al., 2010, Bartók et al., 2013) und die Many-Body-Tensor-Representation (MBTR) (Huo und Rupp, 2022). Obwohl alle drei Methoden für Screening-Zwecke in der Praxis als ungeeignet erwiesen wurden, zeigte sich, dass die MBTR-Methode auf eine Untergruppe von Materialien anwendbar ist, die durch eine Forschung zur Untergruppenentdeckung (SGD) von Sutton et al. (2020) identifiziert wurde. Anders ausgedrückt könnte man sagen, dass n-Gramm und SOAP für unterschiedliche Materialien gleichermaßen ungeeignet waren, während MBTR in einem bestimmten Materialbereich akzeptabel gut war, jedoch bei anderen schlechter abschnitt.

Sofern nicht anders speziell entwickelt, behandeln tiefe neuronale Netze (DNNs) alle Eingaben gleich – das heißt, der Verlust von einer Eingabe wird nicht bevorzugt gegenüber dem Verlust von einer anderen (Fernando und Tsokos, 2022). Dies kann dazu führen, dass Modelle auf einer großen Datenmenge trainiert und getestet, aber mit nur einem einzigen Wert bewertet werden. Das kann Modelle benachteiligen, die für eine Untergruppe von Daten sehr gut arbeiten (Boley et al., 2020). Als Analogie: Es wäre sinnvoller, einem Schüler oder einer Schülerin separate Noten für verschiedene Kurse zu geben, anstatt ihm nur eine Gesamtnote für das ganze Semester zuzuweisen. Mit einer einzigen Note für das gesamte Semester wird es für Schüler und Schülerinnen schwieriger zu erkennen, worin sie gut sind und was sie noch verbessern müssen. Am Ende wählen Menschen aus diesem Grund eine Fachrichtung und einen Beruf. Genauso wie Menschen sind Modelle nicht in allen Aufgaben gleichermaßen gut, sondern haben Stärken und Schwächen (Jha et al., 2018).

Der große Unterschied besteht jedoch darin, dass wir wissen, wie wir die "Semesternote" in verschiedene Kurse aufteilen können, indem wir einfach unterschiedliche Noten für unterschiedliche Kurse vergeben. Für KI-Modelle ist das jedoch nicht immer möglich, da – in schwierigen Worten – die von KI-Modellen verwendeten Merkmale nicht unbedingt mit den von Menschen genutzten Merkmalen kompatibel sind (Zhang et al., 2024). Daher ist es schwierig, das beste Modell für die Analyse eines bestimmten Materials auszuwählen oder zu entwerfen.

Dies verdeutlicht die Schwierigkeit, Black-Box-Modelle allgemein für eine große Gruppe von Eingaben anzuwenden. Dieses Problem kann angegangen werden, indem die Stärken und Schwächen der Modelle identifiziert werden. Dennoch bleiben Probleme ungelöst, da wir nicht wissen, warum das Modell in manchen Bereichen besser und in anderen schlechter ist. Wir beenden diese Diskussion mit einem verwandten Zitat eines berühmten Psychiaters:

 Der Schuh, der einem passt, drückt einem anderen; es gibt kein Rezept fürs Leben, das für alle Fälle geeignet ist.” - Karl Jung
Literatur
  1. Sutton, C., Ghiringhelli, L.M., Yamamoto, T. et al. Crowd-sourcing materials-science challenges with the NOMAD 2018 Kaggle competition. npj Comput Mater 5, 111 (2019). https://doi.org/10.1038/s41524-019-0239-3
  2. Bartók, A. P., Payne, M. C., Kondor, R., & Csányi, G. (2010). Gaussian approximation potentials: The accuracy of quantum mechanics, without the electrons. Physical Review Letters, 104(13). https://doi.org/10.1103/physrevlett.104.136403 
  3. Bartók, A. P., Kondor, R., & Csányi, G. (2013). On representing Chemical Environments. Physical Review B, 87(18). https://doi.org/10.1103/physrevb.87.184115 
  4. Huo, H., & Rupp, M. (2022). Unified representation of molecules and crystals for machine learning. Machine Learning: Science and Technology, 3(4), 045017. https://doi.org/10.1088/2632-2153/aca005 
  5. K. R. M. Fernando and C. P. Tsokos, "Dynamically Weighted Balanced Loss: Class Imbalanced Learning and Confidence Calibration of Deep Neural Networks," in IEEE Transactions on Neural Networks and Learning Systems, vol. 33, no. 7, pp. 2940-2951, July 2022, doi: 10.1109/TNNLS.2020.3047335.
  6. Sutton, C., Boley, M., Ghiringhelli, L.M. et al. Identifying domains of applicability of machine learning models for materials science. Nat Commun 11, 4428 (2020). https://doi.org/10.1038/s41467-020-17112-9
  7. Jha, D., Ward, L., Paul, A. et al. ElemNet: Deep Learning the Chemistry of Materials From Only Elemental Composition. Sci Rep 8, 17593 (2018). https://doi.org/10.1038/s41598-018-35934-y
  8. Zhang, S., Xia, B., Zhang, Z., Wu, Q., Sun, F., Hu, Z., & Sun, Y. (2024). Automated Molecular Concept Generation and Labeling with Large Language Models. ArXiv, abs/2406.09612.



!     Welche sensiblen Probleme in Ihrem Studienbereich könnten Bedenken hervorrufen, wenn Black-Box-Modelle angewendet werden? Denken Sie darüber nach oder suchen Sie im Internet nach einem Beispiel.