Herzlich Willkommen bei SOGEDES - Hier trifft Mensch auf Technologie

Subscribe to Our Newsletter

Filter nach Kategorien

Algorithmic Bias - Algorithmische Verzerrung

Vor Kurzem sollte ich für eine anstehende Feier einen Kuchen backen. Während ich die Zutaten zusammen mische, fällt mir auf, dass die Milch zu Neige geht. „Alexa, füge Milch zu meiner Einkaufsliste hinzu“. „Milch wurde zur Einkaufsliste hinzugefügt“ antwortet Alexa und ich kann, ohne etwas aus den Händen zu legen, weiterbacken.

Künstliche Intelligenz hat längst Einzug in das alltägliche Leben gefunden. Auch Systeme für Automatic Speech Recognition (ASR), welche gesprochene Sprache erkennen und weiterverarbeiten (wie zum Beispiel in der oben geschilderten Situation), sind stehts präsent. Das Einsatzgebiet ist dabei umfangreich vom Gebrauch im privaten Haushalt, über Voicebots im Kundenservice, Automatic Speech Recognition (ASR) in Einstellungsgesprächen, Speech- und Voiceanalytics, die Systeme durchdringen zunehmend unterschiedlichste Bereiche unseres täglichen Lebens.

Das bedeutet auch, dass ASR immer mehr Entscheidungen trifft, welche vorher von Menschen getroffen wurden, z.B. welche Person für ein weiteres Vorstellungsgespräch eingeladen wird. Diese Entwicklung bringt jedoch nicht nur technischen Fortschritt mit sich, um zum Beispiel Arbeitsprozesse zu vereinfachen. In manchen Einsatzbereichen, in denen Algorithmen in Entscheidungsprozessen eingesetzt werden, wurde jedoch dabei ein sog. Algorithmic Bias (Algorithmische Verzerrung) festgestellt.

 

Wie entsteht Algorithmische Verzerrung?

Algorithmen erlernen anhand von Datensätzen, mit denen sie trainiert werden, wie sie Entscheidungen treffen sollen. Auch wenn Sie sich durch künstliche Intelligenz und maschinelles Lernen selbstständig trainieren können, basieren algorithmische Entscheidungen immer auf Mustern, welche in anderen Datenquellen gefunden wurden, wodurch vorhandene Strukturen reproduziert werden. Genau hier liegt das Problem: sind in den Trainingsdatensätzen bestimmte Fälle unterrepräsentiert oder gar nicht beachtet, kann der Algorithmus nicht ausreichend lernen, wie er mit weniger stark repräsentierten Fällen umgehen muss. Die Entscheidungen, die er trifft, sind ohne zusätzliche Korrektur infolgedessen fehleranfälliger. Nicht nur die Struktur innerhalb der Trainingsdatensätze kann zu einer Verzerrung führen. Ein weiterer Faktor für die Verzerrung kann der Mensch sein, der die Algorithmen trainieren. Ob bewusst oder unbewusst, die persönlichen Verzerrungen der Programmierenden wird an den Algorithmus zum Beispiel durch die ihm zur Verfügung gestellten Trainingsdaten weitergegeben. So hat zum Beispiel eine Studie (Goel et al.) aus dem Jahr 2020 ergeben, dass die ASR von mehreren großen KI-Anbietern schwarze Amerikaner*innen signifikant benachteiligt.

 

Wie können Unternehmen der Verzerrung entgegenwirken?

Wichtig ist vor allem, dass sich Unternehmen bewusstwerden, dass Algorithmen keinesfalls einen universellen Wahrheitsanspruch haben und es sich um keine neutrale Technologie handelt. Es ist wichtig, dass der Algorithmus anhand von Trainingsdatensätzen lernt, welche alle Aspekte, die zur Entscheidungsfindung genutzt werden, ausreichend abdeckt. Darunter fallen zum Beispiel bei einem Voicebot Stimmen verschiedener Altersgruppen, Geschlechter, Dialekte, Akzente, Stimmfarben, ect..

Neben diversen Trainingsdatensätzen kann ein diverses Team helfen, die Verzerrung zu minimieren.

Wenn Unternehmen Algorithmen zur Entscheidungsfindung genutzt werden, muss ständig und stetig darauf geachtet werden, dass durch eine Verzerrung keine Nachteile für bestimmte Personengruppen entstehen.

Solange Algorithmen von Menschen trainiert werden und auf Basis von menschengemachten Daten lernen, übernehmen Sie immer ein Stück weit auch die Werte und Einstellungen der Menschen hinter dem Algorithmus. Daher muss ein Bewusstsein für das Vorhandensein eines Algorithmic Bias geschaffen werden und die Entscheidungen, welche der Algorithmus trifft, müssen kritisch hinterfragt werden.

 

Wie kann SOGEDES unterstützen, algorithmische Verzerrung zu verkleinern?

Als erfahrener Entwicklungs- und Implementierungsspezialist kennt SOGEDES die Gefahr von auftretenden Biases.

Auch Unternehmen beschäftigen sich damit, ob beispielsweise ein Voicebot allen Anrufer*innen gerecht werden kann und auch Akzente und Dialekte versteht.

Wir arbeiten täglich daran, die Algorithmen hinter den Automatisierungstools so zu gestalten, dass sie allen gerecht werden. Wichtig ist auch zu erwähnen, dass ein Sprachsystem zur Automatisierung (Voicebot, Speechanalytics, Voiecanalytics, ect.) nach der Implementierung nicht „fertig“ ist, es sollte ständig weiterentwickelt und so stetig besser werden. Einen Algorithmus, welcher zu 100% keinen Bias aufweist, können wir ihnen nicht versprechen. Wir können allerdings versichern, dass wir ein erhöhtes Bewusstsein für den Bias haben und in Testläufen prüfen, dass die Customer Experience im Contact Center für alle Kund*innen auf einer gleichen Ebene ist und wir die Technologie, die wir implementieren, immer kritisch hinterfragen und über mögliche Fallstricke transparent aufklären.

Lea Becker

Lea ist Werkstudentin im Marketing und unterstützt in den Bereichen Social Media und Content-Erstellung. Digitalisierung ist in ihrem Studium im Fach Medien- und Kommunikationswissenschaften ein sehr präsentes Thema. Auch im Alltag wird Lea immer stärker bewusst, wie bedeutend Digitalisierung heute ist und welche Erleichterungen damit einhergehen. Daher ihr Wunsch, an dieser Entwicklung teilzuhaben und digitale Themen für alle verständlich in Content zu verwandeln.

MicrosoftTeams-Vlog

 

MicrosoftTeams-Blog

 

MicrosoftTeams-Blog

 

MicrosoftTeams-Vlog