Zu Inhalt springen Zu Fußbereich springen

Lernplattform gesucht? Hier geht's zu allen Anwendungen!

Exemplarische Anwendungsbereiche von KI-Systemen

Im Folgenden erhalten Sie Informationen über ausgewählte Anwendungsbereiche von KI-Systemen.

KI-gestützte Systeme begleiten Sie bereits jetzt im Alltag ständig – so omnipräsent, dass sie kaum noch wegzudenken sind, und so unauffällig, dass sie kaum mehr aktiv wahrgenommen werden (Wahlster und Winterhalter, 2020, S. 11). Tatsächlich haben Sie wahrscheinlich bereits mehrere verschiedene Arten von KI genutzt, bevor Sie an einem normalen Arbeitstag das Haus verlassen: beim Entsperren des Smartphones mittels Fingerabdruck- oder Gesichtserkennung, bei der Verwendung einer Wetter-App, um die Regenwahrscheinlichkeit zu überprüfen oder bei der Überprüfung der morgendlichen Verkehrssituation und der damit verbundenen Routenplanung vor Ihrer Abfahrt – all diese Aktivitäten erfordern die Verwendung von KI (Notter et al., 2020-2023).

Auch im industriellen Kontext nimmt der Einsatz von KI stetig und rapide zu. Sie wird in vielen Unternehmen bereits genutzt, um Prozesse zu optimieren und die Produktivität zu steigern oder um Entscheidungsprozesse zu analysieren und zu unterstützen. Die große Stärke der KI ist dabei, dass sie im Gegensatz zu Verfahren, die nach festen Mustern arbeiten, lernfähig ist und ihre Ergebnisse fortwährend optimiert werden können. So können z. B. personalisierte Angebote für Kundinnen und Kunden immer einfacher und schneller generiert werden, was wiederum zu einer Steigerung der Produktivität und damit Umsatzzuwächsen führt (Wahlster und Winterhalter, 2020, S. 11).  

Im Folgenden sollen ausgewählte Anwendungsfelder von KI-gestützten Systemen – aktuelle und in Entwicklung befindliche – kurz vorgestellt werden. Die dabei getroffene Auswahl erhebt keinen Anspruch auf Vollständigkeit oder umfassende informationelle Tiefe.

Chatbots

  • © istock.com/Zapp2Photo

    Der Chatbot ChatGPT löste eine breite Diskussion aus. Was steckt dahinter? Welche Chancen und welche Risiken ergeben sich damit?

    Lesen Sie hier, woher Chatbots ihr Können haben und was das heute und morgen für uns bedeuten kann.

Bilderkennung

  • Wenn Maschinen Augen bekommen: Erfahren Sie mehr darüber, wie Bilderkennungstechnologien unser tägliches Leben beeinflussen und welche Auswirkungen dies auf unsere Zukunft haben könnte.

    Dieser Artikel ist in Arbeit.

Medizinische Diagnostik

© istock.com/janiecbros

Der Einsatz von KI gewinnt in der Medizin stetig an Bedeutung und bietet eine immer größere Vielfalt an Anwendungsmöglichkeiten. Die KI kann durch maschinelles Lernen aus großen Datenmengen Muster und Trends erkennen und standardisiert auswerten, was eine schnellere und genauere Diagnostik ermöglicht. Beispielsweise kann effizient und zuverlässig erkannt werden, ob es Anzeichen für Lungenentzündungen oder Blutungen im Gehirn in einem CT-Bild gibt. Risikofaktoren für schwere Erkrankungen, wie Demenz, können frühzeitig identifiziert werden, um gezielte Vorsorgemaßnahmen oder Therapien anzubieten. KI trägt darüber hinaus dazu bei, personalisierte Therapien zu entwickeln, indem sie Patientendaten nutzt, um die besten Behandlungsoptionen für jeden Einzelnen zu identifizieren (Herrmann et al., 2021).

In einem gesellschaftlich so relevanten und für den einzelnen Bürger so sensiblen Bereich wie der Medizin ist jedoch auch zu bedenken, dass beim Einsatz von KI hohe Datenschutzanforderungen zu berücksichtigen sind, insbesondere bei sensiblen Patientendaten, die an unbefugte Dritte weitergegeben werden können (Brautzsch, 2021). Eine weitere Problematik besteht darin, dass die algorithmischen Auswertungsprozesse KI-basierter Anwendungen in ihrer aktuellen Ausprägung keine Anhaltspunkte dafür liefern, wie ein Ergebnis zustande gekommen ist. Gerade im medizinischen Kontext ist jedoch fundamental wichtig, einen Befund und die damit verbundenen Therapieentscheidungen transparent zu gestalten, denn schließlich tragen immer noch die behandelnden Ärztinnen und Ärzte die Verantwortung – nicht die Algorithmen (Meißner, 2021).

Deepfakes

© istock.com/FotografieLink

KI kann auch bei der Gestaltung oder Modifikation von Bildern und Videos verwendet werden. Dadurch wird es möglich, Inhalte zu erstellen, die Ereignisse zeigen, die nie stattgefunden haben oder zumindest nicht in der dargestellten Form. Im Moment ist die Erstellung dieser Deepfakes noch vergleichsweise aufwändig. Durch die fortwährende Weiterentwicklung der Technologie wird es zukünftig jedoch immer einfacher werden, gefälschte Videos von Ereignissen zu erstellen, die von echten Aufnahmen nicht zu unterscheiden sind.

Weiterführende Informationen hierzu finden Sie auch auf der Seite des Bundesamtes für Sicherheit in der Informationstechnik:

Personalisierung von Nutzerinhalten

Viele der Informationen, die wir täglich erhalten, sind durch die KI-basierte Sammlung und Auswertung unserer Nutzerdaten personalisiert. Dies gilt u. a. für Inhalte auf sozialen Medien, Onlinewerbung, Musik- und Filmempfehlungen auf Streaming-Plattformen sowie die Ergebnisse von Suchmaschinen.

Diese massenhafte Sammlung von Daten rund um unsere Interessen und die Anwendung von Algorithmen auf diese Daten hat zur Intensivierung eines Phänomens geführt, das als Filterblase(n) bekannt geworden ist. Diese entstehen u. a. dadurch, dass sich Nutzer mit der Zeit immer weniger mit verschiedenen Inhalten auseinandersetzen – und damit auch mit weniger Perspektiven. Das gilt nicht nur für Nachrichtenblasen, sondern auch für allgemeine Informationen. Eine Online-Recherche kann sich demnach trotz identischer Suchbegriffe durch den Einfluss von Algorithmen grundlegend von der Suche einer anderen Person unterscheiden, je nachdem, wo diese lebt, welche Online-Aktivitäten sie tätigt und wie ihre Interessen (gemäß der jeweiligen Online-Aktivität) aussehen. Dadurch verengt sich auf Dauer gesehen die eigene Wahrnehmung. Für das gesellschaftliche Gefüge ist dies problematisch, weil Teile einer Gesellschaft sehr unterschiedliche Vorstellungen von der Realität entwickeln können, abhängig davon, welche Inhalte sie konsumieren. Auch die Toleranz gegenüber Menschen, deren Meinungen von der eigenen abweichen, nimmt dadurch fortwährend ab. Das Wertesystem einer Gesellschaft driftet somit immer weiter auseinander (Mangold, o. J.).

Weiterführende Informationen hierzu finden Sie im folgenden Beitrag im mebis Magazin:

Fake News und Filterblasen

Eine kritische Auseinandersetzung mit dem Phänomen „Filterblase” mit Anregungen, wie Kinder, Jugendliche und Erwachsene damit umgehen können.

Weiterlesen

Personalauswahl

© istock.com/Thanmano

Immer mehr Unternehmen nutzen KI-basierte Anwendungen, um zu entscheiden, welche Bewerberinnen und Bewerber für ein Vorstellungsgespräch in Frage kommen (Schlupeck, 2019). Zunächst erscheint es durchaus sinnvoll, automatisierte Datenanalysen einzusetzen, um Bewerbungsprozesse objektiver und effizienter zu gestalten, indem man eine KI-Software beispielsweise darauf trainiert, bestimmte Qualifikationen einer Person positiv oder negativ zu bewerten.

Durch einseitige Trainingsdaten kann es jedoch zur Übernahme ungewollter bzw. unbewusster Muster kommen. Diese algorithmische Voreingenommenheit, auch Algorithmic Bias genannt, wird dann von der KI systematisch angewandt und verzerrt das Ergebnis der Auswertung. Wurden beispielsweise Bewerberinnen bisher öfter abgelehnt als ihre männlichen Konkurrenten, übernimmt die KI dieses Muster und sortiert Frauen unter Umständen noch vor dem Bewerbungsgespräch aus – nicht aufgrund mangelnder Qualifikation, sondern aufgrund einer einseitigen Menge von Trainingsdaten. Im Moment ist demnach die Festlegung von Zielvariablen die größte Hürde in der Ausgestaltung eines fairen KI-basierten Bewerbungsprozesses. Die Frage nach der „besten“ Bewerbung beeinflussen im Moment nach wie vor Menschen durch die Festlegung bestimmter Kriterien zur Analyse eines Datensatzes. Anders ausgedrückt: die KI-basierten Systeme können nur so gut sein wie ihre menschlichen Trainerinnen und Trainer und spiegeln damit auch mitunter – gewollt oder ungewollt – gewisse Wertvorstellungen oder Vorurteile wider (Radó, 2020).

Vorausschauende Polizeiarbeit

© istock.com/Blue Planet Studio

Vorausschauende Polizeiarbeit, auch Predictive Policing genannt, ist eine Methode der polizeilichen Präventionsarbeit, bei der Computermodelle und Algorithmen verwendet werden, um künftige Kriminalitätsmuster vorherzusagen und die Polizeipräsenz dorthin zu lenken, wo sie am dringendsten benötigt wird. Diese Technologie basiert auf historischen Kriminalitätsdaten und kann helfen, die Verbrechensrate zu senken und Polizeieinsätze effizienter zu gestalten (Povalej und Volkmann, 2021). Das Verfahren findet vor allem in den USA bereits breite Anwendung, ist jedoch vor allem im Hinblick auf die Aufrechterhaltung bzw. Verstärkung der strukturellen Benachteiligung von People of Color sehr umstritten (Wehrheim, 2020).

Ähnlich wie bei den weiteren hier beschriebenen Anwendungsbereichen sind oftmals die Datengrundlage und die Art und Weise, wie diese durch die KI ausgewertet wird, problematisch. Predictive Policing kann zu einer Art Teufelskreis führen, da eine Überwachung bestimmter Gebiete aufgrund bereits bestehender Datenanalysen zu einer Steigerung der registrierten Kriminalität in diesen Bereichen führen kann. Diese höhere Kriminalitätsrate kann dann wiederum von der Predictive-Policing-Software als Beweis für eine höhere Kriminalität in diesen Bereichen angesehen werden, was zu noch mehr Überwachung und Kontrolle führt (Bund Deutscher Kriminalbeamter e. V., 2020). Auch die Bewertung des zukünftigen Risikos einer erneuten Straftat durch eine Person mithilfe von „Rückfälligkeitsalgorithmen“ ist aufgrund ihrer Fehleranfälligkeit problematisch und benachteiligt vor allem die afro-amerikanische Bevölkerung systematisch (Zweig, 2019).

Weitere Beiträge

Alle ansehen (7)
Zu Seitenstart springen