Direkt zum Inhalt

Zitierfähige Version

Unter dieser URL finden Sie dauerhaft die unten aufgeführte Version Ihrer Definition:
Revision von Responsible AI vom 19.02.2021 - 16:34

Responsible AI

Definition: Was ist "Responsible AI"?

Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie "Explainable AI" und "Trustworthy AI" – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.

Geprüftes Wissen

GEPRÜFTES WISSEN
Über 200 Experten aus Wissenschaft und Praxis.
Mehr als 25.000 Stichwörter kostenlos Online.
Das Original: Gabler Wirtschaftslexikon

zuletzt besuchte Definitionen...

    Ausführliche Definition im Online-Lexikon

    Inhaltsverzeichnis

    1. Allgemein
    2. Hintergrund
    3. Kritik und Ausblick

    Allgemein

    Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie "Explainable AI" und "Trustworthy AI" – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.

    Hintergrund

    Responsible AI kann als Arbeitsgebiet der Künstlichen Intelligenz oder von Informations-, Roboter- und Maschinenethik angesehen werden, zudem als gewünschtes Ergebnis dieser Disziplinen, womit ein normativer Charakter gegeben wäre, entweder mit Blick auf Forschung und Entwicklung oder auf die Anwendung. Entsprechend würde man fordern, dass nur bestimmte, etwa moralischen und sozialen Kriterien genügende KI-Systeme hervorgebracht oder betrieben werden sollen. Während in KI, Informationsethik und Roboterethik vor allem das verantwortungsbewusste Handeln des Hersteller oder Entwicklers thematisiert und mit Entscheidungen von Ethikkommissionen und mit ethischen Leitlinien flankiert wird, programmiert die Maschinenethik den Systemen bestimmte moralische Regeln ein, die entweder strikt befolgt oder je nach Situation adaptiert werden. Die entstehende künstliche oder maschinelle Moral, die menschliche simuliert, kann vor allem bei autonomen Systemen, die in überschaubaren und beschränkten Räumen unterwegs sind, als sinnvolle Lösung gelten, etwa bei Haushaltsrobotern oder Sicherheitsrobotern auf dem Betriebsgelände.

    Kritik und Ausblick

    Wissenschaft, mithin wissenschaftliche Methoden gebrauchende Ethik, verfolgt in erster Linie Erkenntnisgewinn. Ein Arbeitsgebiet, das sich verantwortungsvollen Systemen (also solchen, die verantwortungsvoll entwickelt oder mit bestimmten Regeln und Grenzen ausgestattet werden) verschrieben hat, kann dieses Ziel durchaus erreichen. Problematisch wird es, wenn Responsible AI zur allgemeinen Forderung wird, und zwar zunächst eben aus philosophischen und wissenschaftstheoretischen Gründen. Im Labor darf durchaus auch "verantwortungslose KI" entstehen, wenn dies dem Erkenntnisgewinn dient, wie ein Gesichtserkennungssystem, eine Münchhausenmaschine (eine Maschine, die die Unwahrheit sagt) oder ein autonomer Kampfroboter. Per Gesetz kann dann bestimmt werden, was in der Praxis zulässig ist. Wenn ein Moralisieren in die Wissenschaft einzieht, ist das dieser nicht zuträglich, da es sie beschränkt, was nicht bedeutet, dass in ihr alles möglich sein soll – so gibt es gute Gründe, Tierversuche abzulösen, Genmanipulationen zu beschränken und das Abgreifen von Fotos auf Plattformen für den Zweck von Machine Learning und Deep Learning zu verbieten. Es ist weiter die Frage, wer überhaupt definiert, was verantwortungsvoll ist, und wer davon profitiert, dass bestimmte Systeme entstehen und andere nicht. Letztlich ist "Responsible AI" ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.

    GEPRÜFTES WISSEN
    Über 200 Experten aus Wissenschaft und Praxis.
    Mehr als 25.000 Stichwörter kostenlos Online.
    Das Original: Gabler Wirtschaftslexikon

    zuletzt besuchte Definitionen...

      Literaturhinweise SpringerProfessional.de

      Bücher auf springer.com