Wie stellen KI-Systeme die Gemeinschaft in den Mittelpunkt, Samuel Segun?

Der KI-Ethiker Dr. Samuel Segun argumentiert, dass KI-Systeme, die von Unternehmen im globalen Norden entwickelt werden, soziale Probleme verschärfen könnten. Er fordert, dass ein KI-System, das in Afrika eingesetzt wird, mit Werten verknüpft wird, die für die afrikanische Gesellschaft repräsentativ sind.

6 Minuten
Afrikanische Forschende arbeiten daran, KI-Systeme entsprechend afrikanischer Bedürfnisse zu gestalten.

Leistungsstarke KI-Systeme wie ChatGPT und Algorithmen-gesteuerte Empfehlungssysteme werden häufig von US-Konzernen entwickelt. Der KI-Ethiker Samuel Segun vom African Observatory on Responsible AI (AORAI) in Südafrika argumentiert, dass diese Systeme die sozialen Probleme Afrikas eher verschärfen, wenn sie außerhalb ihres sozialen Kontextes eingesetzt werden.

Christiane Schulzki-Haddouti sprach mit Samuel Segun für Riffreporter.de am Rande des Workshops AI Ethics from the Majority World: Reconstructing the Global Debate Through Decolonial Lenses des Instituts für Wissenschaft und Ethik an der Universität Bonn darüber, wie ein KI-System aussehen könnte, das sich am afrikanischen Kontext orientiert.

Gibt es etwas wie spezifische afrikanische Werte und wenn ja, wie würden Sie diese charakterisieren?

Samuel Segun: Afrika ist kein Monolith und die ethischen oder sozialen Wertesysteme auf dem Kontinent sind nicht in allen Ländern gleich. Es gibt jedoch einige ethische Grundsätze, die auf dem Kontinent, insbesondere bei den Menschen südlich der Sahara, besonders ausgeprägt sind, wie etwa Gemeinschaftssinn, Pflichtbewusstsein, Zusammengehörigkeit, Achtung der Menschenrechte.

amuel Segun vom African Observatory on Responsible AI ( (AORAI)
Der KI-Ethiker Samuel Segun vom African Observatory on Responsible AI ( (AORAI) in Südafrika fordert, dass KI-Systeme Werte repräsentieren, die für die afrikanische Gesellschaft repräsentativ sind.

Spiegeln die derzeitigen KI-Systeme diese afrikanischen Werte wider?

KI-Systeme werden in erster Linie durch maschinelles Lernen entwickelt, und das erfordert das Trainieren von Modellen auf großen Datensätzen. Da Daten nicht kontextlos sind, werden diese Systeme so entwickelt, dass sie die Werte und Ziele ihrer Entwickler widerspiegeln, die zumeist euro-amerikanischer Abstammung sind.

Gegenwärtig entwickeln immer mehr Unternehmen KI-Systeme, um kontextbezogene Anforderungen zu erfüllen. So hat Facebook beispielsweise seine Bemühungen zur Kennzeichnung von Fake News auf seiner Plattform automatisiert, nachdem die Beeinflussung der US-Wahlen im Jahr 2016 durch manipulierte Nachrichten auf seiner Plattform überproportional zugenommen hatte. Diese Algorithmen können sich jedoch als nachteilig erweisen, wenn sie auf einzigartige Probleme außerhalb des Kontexts angewendet werden, für den sie entwickelt wurden.

Sie haben Feedback? Schreiben Sie uns an info@riffreporter.de!