Startseite » Maschinelles Lernen – so überwinden Sie Risiken

Maschinelles Lernen – so überwinden Sie Risiken

by Daniel Rottländer
Published: Last Updated on

Maschinelles Lernen – eine Technologie mit Herausforderungen

Heutzutage ist maschinelles Lernen für viele Unternehmen das Rückgrat des Betriebs. Seit Microsoft SQL Server 2017 sind branchenführende Algorithmen für maschinelles Lernen ein fester Bestandteil des relationalen Datenbankmanagementsystems. Unter anderem die SQL Server 2019 Machine Learning Services, die unter Windows installiert werden können, gewinnen an Bedeutung.

Aber während bereits einige Unternehmen die Vorteile des maschinellen Lernens nutzen, entdecken andere, dass die ML-Implementierung auch mit bestimmten Risiken verbunden sein kann. Welche Risiken zu berücksichtigen sind und welche Gegenmaßnahmen ergriffen werden können, erfahren Sie in diesem Blogbeitrag.

Was macht die ML-Implementierung riskant?

Im Wesentlichen gelten herkömmliche Methoden zur Implementierung digitaler Technologien nicht für ML, da ML-Algorithmen autonom wesentliche Entscheidungen treffen, die sich dramatisch auf Geschäftsergebnisse und das Leben der Menschen auswirken können. Ob es darum geht, Krebs zu erkennen, zu entscheiden, wie auf eine gefährliche Straßensituation zu reagieren ist, oder einen Kandidaten für ein Vorstellungsgespräch auszuwählen, ML-Modelle tragen oft das Gewicht der Welt auf ihren „Schultern“. Es überrascht nicht, dass ML-Engines zum Teil Entscheidungen treffen, die absolut falsch, voreingenommen oder unethisch sind.

Warum also genau kann die ML-basierte Entscheidungsfindung unzuverlässig sein? Es ist wichtig zu erkennen, dass die Ausgabe des ML-Algorithmus eher das Ergebnis einer fundierten Vorhersage als einer endgültigen Antwort auf das ist, was passieren wird. Mit anderen Worten, ML-basierte Tools und Anwendungen treffen Entscheidungen eher auf der Grundlage von Wahrscheinlichkeiten als von Gewissheiten. Und wie wir wissen, können Vorhersagen wahr werden oder auch nicht.

Schlechte Datengrundlage – ein großes Problem

Die Wahrscheinlichkeit, dass Vorhersagen falsch sind, hängt weitgehend von der Qualität und Menge der Daten ab, die für das Algorithmustraining verwendet werden. Unvollständige, veraltete, inkonsistente oder doppelte Daten führen immer zu einer ungenauen Ausgabe des ML-Algorithmus. Die Datenbereinigung, eine Praxis, die ein Standardverfahren sein sollte, unabhängig davon, ob ein Unternehmen ML verwendet oder nicht, ist jedoch die Lösung, um die Daten korrekt zu halten.

Unter anderem Microsoft SQL Server 2019 ist für die Verarbeitung von großen Datenmengen geeignet. Allerdings liegen die Richtigkeit und Vollständigkeit von zur Verfügung gestellten Informationen hauptsächlich in menschlichen Händen.

Voreingenommene Daten – wenn Daten eine Färbung erhalten

Bias ist definitiv eines der umstrittensten, nuanciertesten und komplexesten Probleme, mit denen Unternehmen auf dem Weg zur ML-Implementierung konfrontiert sind. Der Anglizismus Bias steht für Vorurteil, Neigung bzw. Befangenheit.

Angesichts der Tatsache, dass Algorithmen heute Einstellungsentscheidungen treffen und vorhersagen, welche Angeklagten mit größerer Wahrscheinlichkeit rückfällig werden, sind Geschlechter- und Rassendiskriminierung zu erheblichen Bedenken geworden. Das Vorhandensein von Voreingenommenheit in ML-Algorithmen ist zu erwarten, da ML-Algorithmen kurz gesagt so aufgebaut sind, dass sie die menschliche Entscheidungsfindung nachahmen, die von Natur aus voreingenommen ist. Es überrascht nicht, dass der Hauptgrund für einen voreingenommenen ML-Algorithmus voreingenommene Trainingsdaten sind.

Die Lösung hört sich einfach an, ist in der Praxis aber eine große Herausforderung. Es sollten ausschließlich Trainingsdaten verwendet werden, die keine bestimmte Meinung, Anschauung oder Ansicht widerspiegeln.

Unangemessene Modellierung – es ist nicht immer alles ideal

Bedingungen, unter denen ML-Systeme trainiert werden, können sich von realen Umgebungen unterscheiden. Angenommen, es gibt einen Autohersteller, der ein Computer-Vision-System implementieren möchte, um Beulen und Defekte an der Fahrzeugkarosserie zu erkennen. Wenn ein solches ML-Modell in einer stark kontrollierten Umgebung mit perfekter Beleuchtung und Kameraplatzierung trainiert wird, kann es in einer realen Fertigungsumgebung zu ungenauen Ergebnissen führen. In ähnlicher Weise wird ein Aktienhandelsalgorithmus, der nur mit Daten aus einem wirtschaftlichen Aufschwung trainiert wurde, während einer Rezession höchstwahrscheinlich ungenaue Entscheidungen treffen.

Algorithmen sollten möglichst in verschiedenen Umgebungen vorbereitet und trainiert werden. Auf diesem Wege ist sichergestellt, dass die gewünschten Ergebnisse auch bei nicht idealen Voraussetzungen erzielt werden.

Mangel an Transparenz – wenn Systeme ein Eigenleben führen

Wenn ML-basierte Systeme ihr volles Potenzial ausschöpfen, wird es in vielen Fällen immer schwieriger, die Entscheidungsfindung des Algorithmus nachzuvollziehen. Dieser Mangel an Transparenz, der gemeinhin als „Black Box“-Problem bezeichnet wird, ist sowohl aus rechtlicher als auch aus geschäftlicher Sicht ein schwerwiegendes Problem.

Neben datenbezogenen Problemen führt die ML-Implementierung auch zu mehreren Datenschutz- und Regulierungsbedenken.

Wie lassen sich ML-Implementierungsrisiken managen?

Die ML-Implementierung erfordert eine umfassende Aktualisierung herkömmlicher Risikomanagementstrategien. ML-Risikomanagement-Frameworks können je nach Branche und Kontext erhebliche Unterschiede aufweisen. Unabhängig vom Zweck des ML-Systems gibt es jedoch einige grundlegende Methoden, die jedes Unternehmen anwenden sollte, das auf maschinelles Lernen setzt.

Standardisierung gehört zu den kritischsten Bedingungen für die Minimierung von ML-Risiken. Im Wesentlichen korreliert die Risikowahrscheinlichkeit mit dem Grad des Verständnisses, das alle Abteilungen im Unternehmen haben. Mit prägnanten Standards für die Zusammenstellung von Trainingsdatensätzen, Kennzeichnungsdaten, Modelltraining und -bewertung sowie für jeden anderen Schritt des ML-Systemdesigns wird es für Rechts- und Risikomanagementteams viel einfacher, Risiken zu bewerten, da sie über eine transparente Karte des ML-Systemdesigns verfügen.

Die Dokumentation ist ein äußerst leistungsfähiges Werkzeug zur Minimierung von ML-Implementierungsrisiken. Eine umfassende Dokumentation ermöglicht es Ingenieuren und Datenwissenschaftlern, Modellüberprüfungen zu rationalisieren, die für die Risikominderung von größter Bedeutung sind.

Während das Testen eine Standardphase jedes Softwareentwicklungsprojekts ist, erfordern ML-Systeme von Unternehmen, dass sie neuartige Testansätze anwenden. Während es bei ML-Tests technische Feinheiten gibt, müssen Unternehmen die richtige Denkweise anwenden.

Grundstrategie – bis zu einem gewissen Punkt vermenschlichen

Kurz gesagt, es ist wichtig, ein ML-System wie einen Menschen zu behandeln. Wir können eine Parallele zum Formel-1-Fahrertraining ziehen. Unabhängig davon, wie sich eine echte F1-VR-Kabine anfühlt, wird sie die Fähigkeiten der Fahrer auf der realen Strecke während eines Wettbewerbs niemals vollständig und genau widerspiegeln. Aus diesem Grunde ist es von größter Bedeutung, Algorithmen vor dem Rollout so oft wie möglich zufälligen und extremen Bedingungen auszusetzen.

Es besteht kein Zweifel, dass ML in einer Vielzahl von Branchen ein enormes Potenzial hat. Unternehmen erkennen jedoch gerade erst, wie viel Risiko diese Technologie mit sich bringen kann, wenn sie keine ML-spezifischen Ansätze anwenden. Die Einrichtung umfassender Standardisierungs-, Dokumentations- und Überwachungsrahmenwerke ist das Rückgrat risikofreier ML-Modelle.

Wenn Sie eine Datenbankmanagementsoftware wie SQL Server 2019 kaufen möchten, um riesige Mengen an Daten für ML-Algorithmen bereitzustellen, sind Sie bei Softwarekaufen24 genau richtig. Wir bieten Ihnen unter anderem Microsoft SQL Server 2019 Standard zu einem herausragenden Preis-Leistungs-Verhältnis an.

Das könnte Ihnen auch gefallen