Nicht optimistisch, aber hoffnungsvoll — Issue #80

Frohe Ostern! Ich hoffe, Ihr habt ein paar schöne freie Tage und vielleicht sogar Urlaub um die Feiertage herum. Ein bisschen Abschalten tut ja ganz gut und auch ich werde es die kommende Woche mal versuchen. Schließlich war die letzten Wochen echt viel los. Drei Highlights:

Letztes Jahr schrieb ich hier zu Ostern etwas über die Hoffnung, die das Osterfest sicher nicht nur für Christ:innen mit sich bringt. Ich glaub, damals — oder zumindest irgendwann zu der Zeit — verlinkte ich auch den Text von Laurie Penny “On Hope”, den ich immer noch gerne und oft lese. Dieses Jahr gibt es den Text “Nicht optimistisch, aber hoffnungsvoll” von Prof. Peter Dabrock für Euch. Nicht nur, weil er mit dem Text zeigt, warum die Oster-Geschichte auch für Nicht-Gläubige wertvoll sein kann, sondern auch, weil genau dieses Thema auch meines erst kürzlich war. Über das pessimistisch aber hoffnungsvoll sein, sprach ich beim TÜV-Nord und bezog mich dabei auf die deutsche Cybersecurity-Politik (aber auch auf meine Grundstimmung allgemein).

“Das Narrativ von Auferstehung kann deshalb, auch für säkulare Menschen, für die Einsicht sensibilisieren, dass man jenseits aller Pläne, die man selbstverständlich haben darf und soll, die man umsichtig und verantwortungsvoll verfolgen mag, damit rechnen kann, und ich würde sogar sagen, rechnen darf, dass sich nicht nur Neues, sondern unerwartet Neuartiges auftut, Außerordentliches geschehen kann und Ordnungen und Lebensformen sprengbar sind. Nicht nur ist das Ganze mehr als die Summe seiner Teile. Vom Jenseits des Seins, und da war für Platon — den gerade in anderer Hinsicht gescholtenen — das Gute, also: ungesollt, nicht intendiert und nicht verhandelt, kann Rettung kommen. Die wächst bisweilen, und darauf hofft man, wo die Gefahr lauert. Aber mit dem Rettenden darf immer gerechnet werden, nicht nur bei Gefahr — es kommt entgegen, Eigenes unterbrechend und durchkreuzend — und so die Hoffnung: noch das eigene Kreuz durchkreuzend.”

Und weil der Zufall so schön passte, gibt es heute auch diesen Newsletter genau unter diesem Titel: Nicht optimistisch, aber hoffnungsvoll.

Ann Cathrin 🌱

— -

Die Arbeit an diesem Newsletter kostet mich einige Stunden an Arbeit. Wenn er Dir gefällt, kannst Du mich gerne mit monatlich 3,50, 5 oder 10 Euro über Steady unterstützen. Ich würde mich freuen, danke!

WHAT TO KNOW

Ich sage es zu Beginn nochmal deutlich, bevor Missverständnisse aufkommen: Ich finde, wir sollten unbedingt Technologie zur Pandemiebekämpfung einsetzen — natürlich auch Daten. Und wir sollten ebenso unbedingt statt den Zetteln in Restaurants digitale Lösungen nutzen, um unseren Aufenthalt dort zu registrieren. Warum? Weil digitale Lösungen hier deutlich sicherer und datenschutzkonformer sind als eine Zettelwirtschaft. Wenn, ja wenn man die digitale Lösung denn richtig umsetzt. Und genau hier beginnt mein Problem mit der gehypten App luca. Exemplarisch für mein Problem damit könnte man den Berliner Regierenden Bürgermeister heranziehen, der öffentlich sagte, dass er überhaupt keine Ahnung davon habe, was er da jetzt an Verträgen unterschrieben habe, aber die App jetzt unbedingt haben wolle. Schön, wenn Regierende endlich mal handeln — daran fehlt es ja gerade massiv — ich würde mir als Bürgerin jedoch a) wünschen, dass sich mein Landeschef mit Dingen wenigstens etwas auseinandersetzt, die er kauft b) nicht öffentlich zu bekennen gibt, dass er Verträge unterschreibt über Sachen, von denen er keine Ahnung hat und c) dass digitale Tools mit der Ernsthaftigkeit behandelt werden würden, mit der wir auch andere Dinge behandeln. Solch eine Aussage über einen Impfstoff wäre ihm niemals über die Lippen gekommen.

Ich bin der Meinung, dass wenn der Staat Software einkauft, da ganz besondere Sicherheitsstandards und auch Anforderungen an die Software gestellt werden müssen. Sollen hier doch Daten von nahezu allen Bürger:innen verarbeitet werden (schließlich wollen wir ja alle irgendwann wieder in Restaurants und Zoos). Also ist es mehr als sinnvoll, dass hier genau auf die Architektur der Software bzw. der Server dahinter geachtet wird und auch hier wäre — wie bei der Corona-Warn-App — ein dezentrales Modell deutlich sicherer. (Übrigens wäre das noch sicherer und besser, wenn man bedenkt, dass die Betreiber von luca schon im Hinterkopf haben, da ein weiteres Business drauf aufzubauen, u.a. ein Ticketing-System, wie die Herausgabe der Präsentation durch FragDenStaat ergab.)

Mit dem Wissen, dass man plant auf dem System luca noch ein Ticketing-System aufzusetzen, wird noch schwieriger, dass es a) keine es Ausschreibungen für “luca” gab, die Bundesländer die App einfach kauften — unter der falschen Annahme, es gäbe keine vergleichbaren Anbieter. Nur gibt es ungefähr 40 weitere Startups, die so etwas anbieten. Nur ohne prominente Fürsprecher/Investoren leider keinen Fuß in Türen bekamen und b) das System nicht offen ist, das heißt, die Nutzer:innen nicht selber entscheiden können, welche App sie sich herunterladen und einfach das bessere gewinnt. Durch offene Standards und Schnittstellen könnten sie alle mit dem Gesundheitsamt verbunden werden. Es bräuchte nicht mehrere Systeme dort.

Doch “offen” ist noch ein anderes Problemfeld bei der luca-App. Wie ich schon sagte, ich finde, die Verwaltung sollte einen gewissen Standard an Anforderungen an Software stellen, beispielsweise, dass sie Open Source sein sollte (nicht umsonst unterstützen wir mit LOAD die Initiative “Public Money? Public Code!”). Nein, Open Source ist keine “kostenlose” Software und ja, mit Open Source kann man sehr wohl Geld verdienen. Sehr viel sogar. Open Source ist eine Art den Code zu lizenzieren, ähnlich wie Creative Commons. Es ist durchaus üblich, dass für eine Anwendung nicht alles neu programmiert wird, sondern Funktionalitäten zusammengestellt werden. Luca wollte den Code erst nicht veröffentlichen, obwohl das gerade wegen der Sicherheitsbedenken bei dem umfassenden Einsatz notwendig gewesen wäre — tat es dann aber doch. Unter einer selbsterfundenen Lizenz, die nichts erlaubte — also nicht mal das Testen. Das war schon ein Affront und dann stellte sich heraus: Die Entwickler:innen haben Open-Source-Code verwendet, den Urheber und die Lizenz aber aus dem Code gelöscht. Den Code hätten sie aber gar nicht verwenden dürfen, denn wer Open-Source-Code verwendet, der muss das eigenen Endprodukt unter der gleichen Lizenz veröffentlichen — taten sie aber nicht. Stattdessen haben sie sich nicht nur strafbar gemacht, denn das ist Diebstahl geistigen Eigentums, sie haben damit auch noch riskiert aus den App-Stores mit der App zu fliegen, denn Apple und Google erlauben richtigerweise so etwas nicht. Das hätte man mit richtigem Open-Source-Code von vornherein unterbinden können — nicht nur, weil bereits mehrere Bundesländer für über 10 Millionen Euro für ein Jahr Lizenzen bei luca erworben haben. Einen Kommentar dazu gibt es hier bei Golem.

Der Text unten von der Zeit ist mittlerweile leider hinter der Paywall, aber wer ein Zeitplus Abo hat sollte ihn unbedingt lesen. Wie gesagt, ich bin total dafür, dass wir digitale Registrierungssysteme einsetzen. Aber es ist ja nun nicht so, dass diese Apps und Anbieter erst seit gestern auf dem Markt sind. Das sind sie schon mehrere Monate und mit ein bisschen Vorausplanung hätten die Länder Anforderungen formulieren können und sie einbinden können — am besten mit einem System aus offenen Schnittstellen und mit fairen Verfahren. Dafür wäre die Zeit gewesen, davon bin ich überzeugt. Schließlich dürfte allen klar gewesen sein, dass es noch eine Weile dauert, bis wir wieder in Gaststätten dürfen. Mein Problem ist und bleibt, dass wir beim Thema Digitalisierung zu sehr an PR-Versprechen glauben, nicht nachhaltig handeln und regelmäßig so tun, als wäre Datenverarbeitung eine Sache, die nicht ernstzunehmen ist.

Die Corona-Warn-App kommt jetzt übrigens mit einem ähnlichen Check-In-System. Hätte es schon viel früher können und müssen — ja. Sie ist mit der Funktion aber kein Ersatz für Apps wie luca, denn die sollen diese Papierzettel ersetzen — die CWA ist zum anonymen Tracing gedacht. Ein anderer Zweck als Apps wie luca und doch ist der Check-In mit dieser App sehr sinnvoll, denn sie wird schneller warnen können, als eine App, die noch über das Gesundheitsamt laufen muss und die Betroffenen erst kontaktieren muss. Für Apps wie luca müssen die Bundesländer übrigens noch teilweise die Vorschrift abschaffen, dass die Erfassung der Gästelisten auf Papier zu erfolgen hat 🙄 Und ja, ich glaube, man kann den Menschen auch zumuten zwei Apps zu verwenden. Wenn man ihnen ordentlich erklärt, warum (ich fange jetzt nicht an mich über absolute Kommunikationsdesaster in der Pandemie und bei der CWA aufzuregen). Schließlich schaffen wir es für so viele Dinge mehrere Apps zu nutzen: Social Media Plattformen, Online-Banking, Messenger, Dating, usw. usf.

Warum wollen plötzlich alle Luca?www.zeit.de

Wo wir beim Thema “was Daten können” sind (dazu auch der Podcast unten): alles und nichts. Dieser Text veranschaulicht sehr schön, dass wir sehr viel datafizieren können (und müssen) um zum Beispiel Erfolge messen zu können. So ist beispielsweise die Kindersterblichkeit weltweit massiv zurückgegangen. Es kommt aber immer darauf an, wie granular wir Dinge datafizieren wollen, ihnen eine messbare Größe geben wollen. Denn genau da wird es problematisch. Aber auch dort, wo Menschen entscheiden müssen, was erfasst wird und wie es ausgewertet wird:

To simplify the world enough that it can be captured with numbers means throwing away a lot of detail. The inevitable omissions can bias the data against certain groups. Stone describes an attempt by the United Nations to develop guidelines for measuring levels of violence against women. Representatives from Europe, North America, Australia, and New Zealand put forward ideas about types of violence to be included, based on victim surveys in their own countries. These included hitting, kicking, biting, slapping, shoving, beating, and choking. Meanwhile, some Bangladeshi women proposed counting other forms of violence — acts that are not uncommon on the Indian subcontinent — such as burning women, throwing acid on them, dropping them from high places, and forcing them to sleep in animal pens. None of these acts were included in the final list. When surveys based on the U.N. guidelines are conducted, they’ll reveal little about the women who have experienced these forms of violence. As Stone observes, in order to count, one must first decide what should be counted.

Those who do the counting have power. Our perspectives are hard-coded into what we consider worth considering. As a result, omissions can arise in even the best-intentioned data-gathering exercises. And, alas, there are times when bias slips under the radar by deliberate design.

Das sind Dinge, die auch in dem Buch “Invisible Women” adressiert werden. Probleme, die auftauchen, weil Daten von Frauen fehlen. Es kann (und darf meiner Meinung nach) nicht darum gehen, alles möglichst datafizieren zu wollen, denn es ist schlicht nicht möglich, alles in dieser Welt als Datum zu erfassen (das dann auch noch von allen gleich verstanden wird): “data “may be a pretty decent proxy for something that really matters,” but there’s a critical gap between even the best proxies and the real thing — between what we’re able to measure and what we actually care about.” Und:

Harford quotes the great psychologist Daniel Kahneman, who, in his book “Thinking Fast and Slow,” explained that, when faced with a difficult question, we have a habit of swapping it for an easy one, often without noticing that we’ve done so. There are echoes of this in the questions that society aims to answer using data, with a well-known example concerning schools. We might be interested in whether our children are getting a good education, but it’s very hard to pin down exactly what we mean by “good.” Instead, we tend to ask a related and easier question: How well do students perform when examined on some corpus of fact? And so we get the much lamented “teach to the test” syndrome.

Das Gleiche fiel und fällt mir auch auf, wenn es um das Heilsversprechen der Corona-Warn-App ging. Sie kann (und wird nie können — auch keine andere App mit “mehr Daten” wie GPS) nicht das Verhalten eines Virus zu hundert Prozent nachzeichnen. Sie kann immer nur eine Hilfestellung sein und eine möglichst hohe Wahrscheinlichkeit haben, vor einer möglichen Ansteckung zu warnen.

What Data Can’t Do | The New Yorkerwww.newyorker.com

Ist Euch schon aufgefallen, dass die Plattformen (und auch die Politik mit ihren Vorgaben) sehr gut darin ist, dass terroristische Inhalte von Terrororganisationen aus dem Ausland deutlich besser gelöscht werden, als die von Terror-Organisationen, bzw. gewalttätigen Extremist:innen aus dem Inland? Die hat man nicht nur deutlich besser auf dem Schirm, man ist auch deutlich besser darin sie als solche zu benennen. Und letzteres ist Grundlage dafür, dass Plattformen Maßnahmen dagegen unternehmen können. Aber natürlich nicht nur — denn sie könnten auch jetzt schon mehr gegen QAnon und Co unternehmen. Es fehlt da eher an Wille und Angst vor wirtschaftlichen Verlusten.

The same can’t be said for domestic extremists. In the United States, there’s not an analogous list of domestic terrorist organizations for companies to work from. That doesn’t mean acts of domestic terrorism go unpunished. It just means that people are prosecuted for the underlying crimes they commit, not for being part of a domestic terrorist organization. That also means that individual extremists who commit the crimes are the ones who face the punishment, not the groups they represent. “You have to have a violent crime committed in pursuit of an ideology,” former FBI Acting Director Andrew McCabe said in a recent podcast. “We hesitate to call domestic terrorists ‘terrorists’ until after something has happened.”

This gap in the legal system means tech companies write their own rules around what sorts of objectionable ideologies and groups ought to be forbidden on their platforms and often only take action once the risk of violence is imminent. “If something was illegal it was going to be handled. If something was not, then it became a political conversation,” Eisenstat said of her time at Facebook.

Even in the best of times, it’s an uncomfortable balancing act for companies that purport to prioritize free speech above all else. But it’s particularly fraught when the person condoning or even espousing extremist views is the president of the United States. “Nobody’s going to have a hearing if a platform takes down 1,000 ISIS accounts. But they might have a hearing if you take down 1,000 QAnon accounts,” said Wexler, who worked in policy communications for Facebook, Google and Twitter during the Trump administration.

Auch wir sprechen ja zu gern — insbesondere bei Rechtsterroristen — von Einzeltätern. Dazu empfehle ich das Buch von Karolin Schwarz: Hasskrieger: Der neue globale Rechtsextremismus.

Big Tech fights foreign terrorists, not so much domestic — Protocol — The people, power and politics of techwww.protocol.com

Unter der Leitung des Medienrechtler Prof. Marc Liesching ist eine Alternativ-Evaluierung des Netzwerkdurchsetzungsgesetzes erschienen die — es verwundert kaum — zu einem anderen Ergebnis als die vom Justizministerium beauftrage Evaluierung kommt und die Methodik dieser auch scharf kritisiert:

In den Monitoring-Berichten der Firma seien nur Stichproben aufgeführt, und diese seien nur den vier Netzwerken Facebook, Instagram, Twitter und YouTube entnommen worden. Es sei bei der Untersuchung nur um eindeutig strafrechtlich relevante Inhalte gegangen, und dies bei einer “eklektischen” Delikt-Auswahl. Ob überhaupt von qualifizierten Juristen geprüft worden sei, dass die Inhalte tatsächlich strafbar seien, gehe aus den Berichten nicht hervor. In den Berichten selbst betone die beauftragte Firma mehrfach, “dass die Ergebnisse aufgrund der Stichprobengröße mit Vorsicht zu interpretieren” seien. Demgegenüber habe das BfJ auf Nachfrage erklärt, dass die Ergebnisse aussagekräftig seien.

In der Alternativ-Evaluierung kommt das Liesching-Gutachten zu der Erkenntnis, dass die Plattformen “Overblocking”betreiben, also deutlich mehr Inhalte sperren, die eigentlich legal sind. Laut dem heise Artikel wird dafür aber kein eindeutiger Beweis geliefert. Dies wird daraus abgeleitet, dass laut den Transparenzberichten der Plattformen kaum nach NetzDG gesperrt werden würde, sondern vornehmlich nach den eigenen AGB. Die wiederum würden ausweitet werden, damit mehr nach AGB entfernt werden kann und man nicht in das Einsatzgebiet des NetzDG komme.

Zusammenfassend konstatieren die Autorinnen und Autoren der Studie, dass entgegen der Aussagen der Bundesregierung das NetzDG “eine nur marginale Bedeutung in der Anwendungspraxis” hat: “Vielmehr stützen beide Teilergebnisse die These eines durch die Restriktionen des NetzDG (enge Löschfristen und hohe Bußgelddrohungen) verursachten verstärkten Ausweichens der Sozialen Netzwerke in eine weit gefasste, interne AGB-Compliance, welche den externen NetzDG-Normbefehlen vorgeschaltet wird und diese gleichsam ins Leere laufen lässt.” Dies führe “zum Ausschluss auch solcher nutzer*innengenerierten Inhalte von der Zugänglichkeit, welche nach den Maßstäben des Strafrechts — auch im Spannungsfeld der Meinungsäußerungsfreiheit — und mithin nach dem NetzDG nicht hätten entfernt werden müssen.”

Daran, so schließt der Bericht, dürften auch die auf den Weg gebrachten neuen Gesetze nichts ändern. Sowohl das “Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität” als auch das “Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes” (NetzDGÄndG) ließen “die skizzierten Befunde einer kaum vorhandenen praktischen Bedeutung und fehlenden Regulierungseffektivität des NetzDG voraussichtlich unberührt. […] Die Neuregelungen greifen damit überwiegend in die Leere eines bereits für das NetzDG 2017 fehlenden praktischen Anwendungsbereichs.”

Das im letzten Abschnitt erwähnte Gesetz gegen Rechtsextremismus und Hasskriminalität ist nun übrigens verabschiedet worden. Nachdem der Bundespräsident es wegen verfassungsrechtlicher Bedenken nicht unterschreiben wollte und ein Reparaturgesetz notwendig war, das in ein Gesetz eingriff, das noch nicht unterzeichnet war. Auch ein einmaliger Vorgang bisher. Das Reparaturgesetz musste auch in den Vermittlungsausschuss des Bundesrats und u.a. die FDP vermutet weiterhin, dass es immer noch verfassungswidrig ist.

Studie: Netzwerk-Durchsetzungsgesetz bringt wenig und führt zu Overblocking | heise onlinewww.heise.de

Der Kampf gegen Kindesmissbrauch wird gerne als Totschlagargument genommen. Und ich will weiß Gott nicht irgendwas legitimieren — aber auch bei Maßnahmen hier muss genau geguckt werden, ob sie überhaupt was bringen und ob sie nicht noch mehr Schaden — gerade für Kinder — bringen. Denn — auch das sagte ich bei der Anhörung im Bundestag zu digitaler Gewalt, als wieder über die Vorratsdatenspeicherung diskutiert wurde — es wäre für alle, insbesondere die Kinder besser, wenn man effiziente Maßnahmen entwickeln und umsetzen würde und nicht welche, die kaum Erfolgsaussichten haben und zusätzlich noch verfassungswidrig sind.

Die EU-Kommission plant nun die anlasslose(!) Durchleuchtung sämtlicher privater elektronischer Nachrichten auf Material, das Kindesmissbrauch zeigt. Die Diensteanbieter (auch von Emails) sollen dann Anzeige erstatten, wenn sie auf welches Gestoßen sind. Patrick Breyer, Europa-Abgeordnetet der Piraten, zeigt in diesem Interview, warum das höchstproblematisch und kontraproduktiv ist:

  • Jede:r hat was zu verbergen. Die anlasslose Durchleuchtung aller privaten Kommunikation ist nicht verhältnismäßig. Zu häufig können Personen fälschlicherweise in die Mühlen der Strafverfolgung kommen und es gibt genügend Fälle die zeigen: Wer da erstmal drinnen ist, auch fehlerhaft, kommt so leicht nicht mehr raus.
  • Eine KI soll die Fotos identifizieren. Kann sie — natürlich — nicht so gut. Das heißt, auch Nacktfotos von Erwachsenen können bei Vertragspartnern der Plattformen landen, die die Fotos dann händisch sichten. Eine Statistik der Schweizer Bundespolizei zeigte, dass lediglich 14 Prozent der identifizierten Inhalte strafrechtlich relevant waren.
  • Schon der Verdacht gegen Menschen, dass sie Aufnahmen von Kindesmissbrauch verbreiten kann erhebliche Folgen für die Betroffenen haben.
  • Kinder (das sind laut UN alle unter 18) verbreiten selber Nacktfotos von sich, zum Beispiel beim Texting. Gerade diese sollten nicht bei irgendwelchen Dienstleistern zur Auswertung landen.
  • Opfer von Missbrauch brauchen geschützte digitale Räume, um sich dort über ihre Traumata auszutauschen. Solche Einschränkungen traumatisieren ggf. nochmal mehr. Drohende Backdoors erhöhen zudem die Gefahr, dass Kriminelle an Fotos kommen und diese weiterverbreitet werden.

Außerdem sagt Breyer:

Und es ist ohnehin mehr als fraglich, ob das allgemeine Durchforsten jeglicher privater Korrespondenz überhaupt ein taugliches Mittel ist. Die von den Kinderpornoringen genutzten Kanäle sind doch nicht Facebook und Co. Außerdem sind die Strafverfolgungsbehörden völlig überlastet und bemerken andauernden Missbrauch viel zu spät, da muss die Verfolgung des physischen Missbrauchs und der Schutz der Kinder absolute Priorität haben.

Die EU und die USA planen derweil gemeinsam Verschlüsselung aufzuweichen.

Patrick Breyer zu E-Privacy: »Selbst das in Videokonferenzen Gesprochene könnte künftig durchforstet werden« — DER SPIEGELwww.spiegel.de

Derweil kann man in Myanmar gut beobachten, wie Überwachungstechnologie, die zur Gewährleistung der öffentlichen Sicherheit installiert wurde, ganz leicht missbraucht werden kann — und wird — sobald das falsche Regime sich an die Macht geputscht hat, wie hier die Militärjunta.

The use of facial recognition technology in public spaces does not merely risk the misidentification of people as criminal suspects, Human Rights Watch said. Even if the technology is accurate, it allows governments to monitor people’s habits and movements, creating potential chilling effects on freedoms of expression, association, and assembly. It can also be used to single out individuals in discriminatory or arbitrary ways, including for their ethnicity or religion.

For example, in China, various technologies including facial recognition and number plate recognition have been used for mass surveillance purposes. Their use is particularly abusive in China’s Xinjiang region, where these systems continually assess the relationships and everyday behavior of Uyghurs, a Turkic Muslim minority. These systems help identify people whom authorities consider “problematic” based on vague criteria following which they are detained, imprisoned, and subjected to political indoctrination.

In Myanmar, the rollout of facial recognition and vehicle license plate recognition technology was approved without public consultation or transparency, making it unclear how the authorities plan to mitigate the technology’s potential impact on human rights, including the right to privacy.

AccessNow hat jüngst einen Report zu Massenüberwachung in Syrien veröffentlicht: How the Syrian regime’s mass digital surveillance violates human rights.

Myanmar: Facial Recognition System Threatens Rights | Human Rights Watchwww.hrw.org

Verletzungen von Rechten gibt es bei Gesichtserkennung nicht nur im Bereich öffentliche Sicherheit. Uber setzt Gesichtserkennungssoftware in, um seine Fahrer:innen zu identifiziert. Damit auch wirklich die bei Uber registrierten Personen fahren und nicht irgendwer anders. Das hat aber zur Folge, dass die Software dann und wann Personen nicht korrekt erkennt und behauptet, der Fahrer sein nicht die richtige Person. Das wird umso bedeutender, wenn man bedenkt, dass die meisten Uber-Fahrer:innen eher nicht-weiße Menschen sind und die Gesichtserkennung vor allem bei weißen Männern gut funktioniert und deutlich schlechter bei schwarzen Männern oder noch schlimmer (immerhin über zwanzig Prozentpunkte Differenz) bei schwarzen Frauen. Eine Fehleinschätzung der Software heißt hier: Mindestens der Lohn des Tages ist weg, wenn nicht sogar eine Sperre des Accounts erfolgt und man erst klagen muss, um von Uber wieder freigeschaltet zu werden. Das kostet nicht nur die Prozesskosten (zumindest erstmal die Auslage), das kostet auch den Ausfall für die Zeit, in der man nicht für Uber fahren kann. Ein Problem, das wiedermal besonders eh schon marginalisierte Menschen mit voller Härte trifft.

Uber under pressure over facial recognition checks for drivers — TechCrunchtechcrunch.com

WHAT TO HEAR

#41: Was macht eigentlich eine Data Scientist? — Tired Women | Podcast on Spotifyopen.spotify.com
Listen to this episode from Tired Women on Spotify. Sponsor dieser Episode ist der Haymon Verlag. Ich durfte euch heute das Buch „Immer noch wach” vorstellen. Neugierig? Der Roman ist überall erhältlich bzw. bestellbar, wo es Bücher gibt. Auf der Website des Haymon Verlags findet ihr außerdem noch viele andere spannende Bücher: https://www.haymonverlag.at/. Eins meiner Buch-Highlights 2020 war “Invisible Women — Exposing Data Bias In A World Designed for Men” von Caroline Criado-Perez. Um mehr über das Thema aus erster Hand zu erfahren, habe ich mich mit der Data Scientist Angelika Schmid getroffen und sie gefragt, was man in dem Job überhaupt macht und auf welche Herausforderungen man als Quereinsteigerin stößt. Angelika erklärt mir, was es mit Korrelation und Kausalität von Daten auf sich hat und warum wir schon in der Schule einen gesunden Umgang mit Daten lernen sollten. Außerdem machen wir einen Ausflug in netzpolitische Themen wie Datenschutz und -transparenz und landen schließlich beim Imposter-Syndrom von Frauen in technischen Berufen. Shownotes: Intro-Vocals: Vanessa Kogler Inhaltliche Gestaltung: Esther Ecke Cut: Iris Böhm Cover-Design: Julia Feller The Book of Why von Judea Pearl & Mackenzie The Circle von Dave Eggers Cousera Udemy Kettle

WHAT TO WATCH

The Split — Beziehungsstatus ungeklärt — Videos der Sendung | ARD-Mediathekwww.ardmediathek.de

Videos zu The Split — Beziehungsstatus ungeklärt | Familienanwältin Hannah Stern führt nicht nur harte Scheidungskriege, sondern durchlebt auch ihre eigene Beziehungskrise. Und dann steht nach 30 Jahren plötzlich ihr Vater vor der Tür.

WHAT TO READ

WHAT I LIKED

SHARE IT!

Ich freue mich, wenn Du diesen Newsletter weiterleitest oder ihn auf Deinen Social-Media-Kanälen teilst! Ebenso freue ich mich, wenn Du mich und meine Arbeit mit monatlich 3,50, 5 oder 10 Euro über Steady unterstützen magst.

chairwoman @loadev | digital policy & civil rights | www.anncathrinriedel.de

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store