Algorithmen werten menschliches Verhalten, Vorlieben und soziales Umfeld aus. Kritiker fordern, man müsse besser nachvollziehen können, wie sie das tun.

Algorithmen und Scoring

Veröffentlicht am

Algorithmen und Scoring

Codes offenlegen beim Scoring durch Algorithmen

Social Scoring: Wo verläuft die Grenze zwischen dem Machbaren und dem Vertretbaren? In China erreicht das Sammeln und algorithmische Auswerten von Daten derzeit ganz neue Dimensionen. Im Auftrag des Staates testen einige große Firmen dort ein „Social Credit System“ zur Bewertung der Bürger.

In den dazugehörigen Social Credit Score fließen verschiedene Faktoren ein: Unter anderem Kreditwürdigkeit, Zuverlässigkeit, Vorlieben und soziales Umfeld eines Menschen, soweit diese sich online nachvollziehen lassen. Exzessives Shopping verringert die Punktzahl, der regierungskritische Kommentar eines Online-Freundes auch. Eine hohe Punktzahl wiederum erleichtert den Zugang zu Krediten oder einem Schengen-Visum.

Dass die zugrundeliegenden Programmcodes eines solchen Systems für die Bevölkerung nicht einsehbar sind, ist in westlichen Ländern ein Diskussionspunkt. Die deutsche Initiative Algorithm Watch etwa fordert, von Algorithmen getroffene Entscheidungen müssten nachvollziehbar sein, um demokratisch kontrolliert werden zu können. Sie empfiehlt dafür „eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen.“

Konkretere Vorschläge macht die US-Initiative AI Now. AI steht für Artificial Intelligence, künstliche Intelligenz also. Die Initiative fordert eine weitreichende Transparenz bezüglich der von öffentlichen Institutionen verwendeten Algorithmen: Ihre Funktionsweise und die verwendeten Trainingsdaten sollten offengelegt werden. Das ermögliche unabhängige Tests und die Definition von Standards.

Sie haben eine Meinung zum Thema? Dann schreiben Sie uns: redaktion@dataport.de