Zu Inhalt springen Zu Fußbereich springen

Was ist „Künstliche Intelligenz”?

„Künstlichen Intelligenz” ist in aller Munde. Doch was versteht man darunter überhaupt? In diesem Beitrag wird dieser Frage nachgegangen und es werden erste Antworten gegeben.

  • © istock.com/modi-sketch

    Eine ausführlichere Version dieses Beitrags ist in Arbeit. Schauen Sie gerne zu einem späteren Zeitpunkt nochmals vorbei.

Starke und schwache KI

In der Wissenschaft gibt es keine einheitliche Auffassung davon, wie KI zu definieren ist (Mosch et al., 2021). Eine gängige Vorstellung von KI ist, dass es sich um Systeme handelt, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.

  • © istock.com/ALLVISIONN

    Vielleicht ist Ihre persönliche Vorstellung von KI geprägt durch Filme wie „Terminator” (1984), in dem KI als übermächtiger Roboter dargestellt wird, der ein eigenes Bewusstsein entwickelt hat und versucht, die Weltherrschaft zu übernehmen. Auch in „2001: A Space Odyssey“ (1968), entwickelt das KI-System HAL ein eigenes Bewusstsein und tritt in Konflikt mit seinen menschlichen Astronauten.

Diese und andere Filme greifen die dystopischen Vorstellungen und Ängste auf, die mit KI verbunden sind und prägen sie mit. Sie haben gemeinsam, dass sie KI als Roboter bzw. Software darstellen, die menschliche Fähigkeiten in fast allen Punkten erreichen oder gar übersteigen. Man spricht von starker KI (Zweig, 2019, S. 318).

  • © istock.com/iambuff

    Im Gegensatz dazu wird eine Software, die eine bisher für spezifisch menschlich gehaltene kognitive Einzelfähigkeit ersetzen kann, als schwache KI bezeichnet (Zweig, 2019, S. 318). Beispiele hierfür sind Schachspielen durch Rechner, Gesichtserkennung und Textproduktion.

Allgemeiner nennen Philosophen „die Behauptung, dass Maschinen agieren könnten, als ob sie intelligent wären, [...] die schwache KI-Hypothese, und die Behauptung, dass Maschinen, die das tun, wirklich denken (und nicht einfach Denken simulieren) die starke KI-Hypothese” (Russell, Norvig, 2012, S. 1176).

Ob es jemals in Zukunft Systeme mit starker KI geben wird ist eine offene Frage, wobei viele Experten davon ausgehen, dass dies nicht möglich sein wird. „Die meisten KI-Forscher nehmen die schwache KI-Hypothese als gegeben hin und kümmern sich nicht um die starke KI-Hypothese” (Russell, Norvig, 2012, S. 1176). Zudem nimmt man an, dass allgemeine Intelligenz einen eigenen Willen und (Selbst-)Bewusstsein voraussetzt.

Die KI-Technologie ist demnach derzeit weit von der Etablierung einer starken KI entfernt. KI-Forscher entwickeln aktuell vielmehr KI-Systeme für gewisse, eng umgrenzte Aufgabengebiete, in denen diese Systeme einzelne, bisher für spezifisch menschlich gehaltene kognitive Fähigkeiten ersetzen (Diethelm, 2021).

  • © istock.com/Marut Khobtakhob

    Die große Chance der KI-Technologien liegt zudem auch darin, dass sie den Menschen dort unterstützen kann, wo seine Fähigkeiten an seine Grenzen gelangen.

    Wichtig hierbei ist jedoch zu beachten, dass diese Chancen Risiken bergen und einen ethischen Rahmen brauchen.

Vielschichtigkeit Künstlicher Intelligenz

Stuart Russell und Peter Norvig gehen in ihrem Standardwerk zur Künstlichen Intelligenz der Frage nach, was KI ist. Sie rechnen KI zu den neueren Gebieten in Wissenschaft und Technik (Russell, Norvig, 2012, S. 22). Man zählt KI auch zu einem Teilgebiet der Informatik mit vielen interdisziplinären Bezügen. Russell und Norvig versuchen die gemeinsamen Dimensionen der unterschiedlichen Definitionen von KI zu erfassen, indem sie diese in vier Kategorien einteilen (Russell, Norvig, 2012, S. 22 ff). Diese sind in dem folgenden Schaubild dargestellt, das im Weiteren genauer erläutert wird.

Einige Wissenschaftler definieren KI als den Versuch, Computern das menschliche Denken beizubringen. Andere Definitionen rücken das menschliche Handeln in den Vordergrund: KI hat für sie das Ziel, „Computer dazu zu bringen, Dinge zu tun, bei denen ihnen momentan der Mensch noch überlegen ist“ (Rich und Knight, 1991). Diesen Definitionen ist gemein, dass sie als Bezugsgröße zur Messung des Erfolgs eines KI-Systems den Menschen bzw. dessen Intelligenz nehmen.

Der Ansatz, künstliche Intelligenz an menschlicher Intelligenz zu messen ist jedoch nicht unbedingt zielführend. Dies liegt zum einen daran, dass Menschen und Computer grundsätzlich unterschiedliche Fähigkeiten haben: Was einem Computer leicht fällt (wie beispielsweise große Mengen an Zahlen zu verarbeiten oder den Wissensinhalt einer Bibliothek zu speichern) fällt dem Menschen schwer. Was aber für einen Menschen sehr einfach ist (zum Beispiel Bilder zu erkennen oder Tomaten zu pflücken) stellt Computer vor immense Herausforderungen. Zum anderen ist auch der Begriff der menschlichen Intelligenz nicht einheitlich definiert.

Deswegen wählen einige Definitionen eine andere Bezugsgröße zur Messung des Erfolgs eines KI-Systems: die Rationalität. Dieser Begriff ist enger umgrenzt als der der menschlichen Intelligenz. „Ein System ist rational, wenn es das seinen Kenntnissen entsprechende ‚Richtige‘ macht“ (Russell, Norvig, 2012; S. 22), also zum Beispiel gemäß logischer Regeln handelt. So wird KI beispielsweise von Patrick Henry Winston als „Studium der mathematischen Formalismen“ beschrieben, „die es ermöglichen, wahrzunehmen, logisch zu schließen und zu agieren“ (Winston, 1992).

Durch diese vier Bezugsgrößen „menschliche Leistung“ und „Rationalität“ sowie „Denkprozesse/logisches Schließen“ und „Handeln/Verhalten“ ergibt sich das oben illustrierte Raster aus vier Kategorien, welche es ermöglichen, die Vielfalt der unterschiedlichen Definitionen von KI aufzuzeigen und deren Gemeinsamkeiten und Unterschiede besser greifbar zu machen. (Russel, Norvig, 2012).

Lesen Sie im folgenden Beitrag über die KI-Geschichte, welche wichtigen Meilensteine, aber auch Rückschläge die KI im Laufe der letzten Jahrzehnte erfahren hat:

Weitere Beiträge

Alle ansehen (8)

KI | Chatbots

Woher haben Chatbots ihr Können und was bedeutet das für uns?

Zu Seitenstart springen