FIfFKon
(source)
Selbstbestimmung in digitalen Räumen
Unsere elektronischen Geräte sehen wir öfter und länger als Freunde oder Familie. Sie sind wichtige Arbeitsmittel und bequeme, allzeit bereite Helfer im Alltag, ohne sie ginge gar nichts mehr. Das wirft Fragen auf: Nach der Technik – wie funktioniert das? Nach gesellschaftlichen Folgen – welche sind das? Geht es auch anders?
Informationstechnik verändert rasant, wie wir kommunizieren, denken, uns bewegen und handeln. Sie dringt inpersönliche und zwischenmenschliche Bereiche vor und beeinflusst unser Verhalten, ohne dass wir uns dessen immer bewusst sind. Wo wir uns als handelnde Subjekte sehen, werden wir oft als Objekte vermessen, bewertet und behandelt. Auf Plattformen und in sozialen Netzen, in smarten Infrastrukturen und in Scoring-Systemen wirken höchst profitable Geschäftsmodelle, die wir kaum durchschauen, geschweige denn (selbst) bestimmen können.
Was bedeutet das für unsere Demokratie?
Wie der chilling effect der Überwachung durch öffentliche und private Akteure steht auch die Aufmerksamkeits-Ökonomie der großen Netz-Oligopole unserer informationellen Selbstbestimmung im Wege. Nicht wir entscheiden, wer was über uns weiß. Oft entscheiden wir nicht einmal, was wir wissen wollen, das legen Konzerne für uns fest. Der Code von Plattformen oder Suchmaschinen regelt die Wechselwirkung zwischen Mensch und Maschine. Technische Systeme haben keinen Raum für eine Debatte darüber, was wir als Gesellschaft für wünschenswert und konstruktiv halten, und behindern eine Repräsentation durch Parteien, NGOs oder andere Initiativen. Damit bestimmen demokratisch nicht legitimierte Institutionen die Chancen auf Handlungsfähigkeit. Wer durch ein Scoring-System aussortiert wurde, bleibt draußen. Und weiß nicht warum.
Wenn wir die Selbstbestimmung als Voraussetzung für unser demokratisches Gemeinwesen zurückerlangen und bewahren wollen, brauchen wir sowohl den Einblick in die Technik als auch den Überblick über die handelnden Akteure und ihre verschiedenen Interessen. Wir wollen beispielsweise wissen, wo Bonus-Systeme von Versicherungen die Daseinsvorsorge untergraben, wo Profiling diskriminiert oder Plattformen Ungleichheit verstärken. Diesen Fragen werden wir auf der FIfF Konferenz anhand einiger Anwendungen nachgehen.
Geht es auch anders?
Was können wir von anderen Ansätzen und Regulierungen, wie beispielsweise der Datenschutz-Grundverordnung, freier Software, Open Data, Sousveillance lernen? Wie können wir unsere legitimen Interessen wahren, ob als Schülerinnen und Schüler, Studierende, Beschäftigte, Versicherte, engagierte Aktive – als Betroffene in egal welcher Rolle? Wer verhindert Missbrauch? Wie lassen sich Diversität herstellen und Teilhabe-förderliche Rahmenbedingungen schaffen?
Diesen Fragen wollen wir gemeinsam mit fachkundigen Vortragenden auf unserer Konferenz nachgehen, und dazu sind Sie und seid Ihr herzlich eingeladen. Wir werden Grenzen und Potenziale der technischen Systeme, der gesammelten Daten und ihrer Verarbeitung ausloten und ihre Bedeutung für das Gemeinwohl und seine demokratischen Grundlagen abwägen. Wir werden anhand ausgewählter Systeme intransparente Software, technische Architekturen, Ordnungs-, Entscheidungs- und Steuerungsmodelle betrachten. Auch jenseits der Verarbeitung personenbezogener Daten geht es darum, eine breite Basis für die demokratische Aushandlung und selbstbestimmte Gestaltung und Verwendung der Systeme zu ermöglichen – und einzufordern.
?