Überwachungsgesamtrechnung, Wutanfälle und Statistik — Issue #37

Bisschen spät schon heute am Sonntag. Ich wollte brav gestern schreiben, aber dann kam mir ein Wutanfall über den Medienstaatsvertrag und Social Bots dazwischen, dann entstand dieser Blogbeitrag und dann musste ich Käse besorgen und Wein dekantieren, weil ich jetzt so r-i-c-h-t-i-g erwachsen werde und dann, na ja. Ihr kennt das — kam alles anders. Aber hier ist er!

Ich bin endlich wieder in Berlin! Mittwoch gelandet und verrückt wie ich bin, direkt auf ein Event. Die Vorstellung des eGovernemnt-Monitors der Initiative D21. Ich geb’s zu: ich war schon aufnahmefähiger und habe vornehmlich in Gesprächen beim Kaffee erfahren, was drin steht. Sagen wir so: gibt noch viel zu tun (dadurch entstand dann auch diese Aussage). Aber ok. Weiter ging es: iPhone nach Montag im Uber und am Mittwoch nochmal im Taxi verloren. Aber Karma-Punkte sammeln lohnt sich — habe es immer wieder bekommen. Damit begann aber schon die Statistik-Woche, denn just vorm zweiten Verlust wurde mir gesagt: “Na statistisch gesehen, wirst du es jetzt erstmal nicht verlieren.” Und schon war’s geschehen. Mit wieder bekommenem iPhone ging es dann noch mit dem BVDW auf Kaffeefahrt. Ohne Heizdecken, aber mit den neusten Infos zum Thema Mobilität. Mit dem Bus sind wir zu einigen Startups und alteingesessenen Mobilitätsunternehmen gefahren und weil alle nur ein kurzes Zeitfenster hatten ihr Unternehmen und ihre Produkte vorzustellen, war alles mit schön viel Inhalt und wenig Blabla. Kurzum: spannend, was alles in dem Markt passiert (meine Liebe zur Tram bleibt aber!)

Genießt noch die restlichen, goldenen Sonnenstunden!

Ann Cathrin

WHAT TO KNOW

Im Rahmen eines Urteils zur Vorratsdatenspeicherung urteilte das Bundesverfassungsgericht aber bereits 2010, dass der weitere Ausbau von Überwachungsbefugnissen im Zusammenhang aller bereits bestehenden Überwachungsmaßnahmen betrachtet werden muss. Der Jurist Alexander Roßnagel beschrieb dies später als “Überwachungsgesamtrechnung”: Verfassungsrechtlich können Befugnisse nicht isoliert betrachtet werden, vielmehr ist darauf zu achten, welches Ausmaß die Überwachung der Bevölkerung in der Summe erreicht. Denn mit dem Menschenbild des Grundgesetzes wäre es schlicht nicht zu vereinbaren, wenn immer mehr sogenannte “Sicherheitspakete” in Bund und Ländern aufeinandergestapelt werden, die es in der Summe ermöglichen, die Bevölkerung nahezu vollständig auszuforschen.

Zu all dem gehört natürlich auch — so schrecklich es ist — hundertprozentige Sicherheit werden wir nie bekommen. Wir werden immer mit Anschlägen rechnen müssen. Wer hundertprozentige Sicherheit verspricht, fordert eine vollständige Überwachung von uns allen. Trost kann hier nur sein, dass die Kriminalitätsrate generell immer geringer wird. Trost darf aber nicht sein, dass sie von Rechts immer weiter steigt. Aber die Bekämpfung dessen muss durch Bekämpfung von Rechtsextremist:innen erfolgen, nicht über die Einschränkung von Freiheitsrechten aller.

Wide  1300x731?1571081427

Anschlag in Halle: Immer neue Sicherheitsgesetze helfen nicht | ZEIT ONLINEwww.zeit.de

Empfehle jedem einen Abend mit einem oder einer Statistiker:in! Statistik fand ich in Schule und Uni immer gut und es war auch der einzige Teil in den Mathekursen in dem ich — bis zu einem bestimmten Level — richtig gut war (ich betone: war!). Aber die Freude an Mathematik (wie eigentlich allem) verfliegt bei mir sehr schnell, wenn es theoretisch bleibt und ich einfach keine Ahnung habe, für was ich da jetzt rum rechnen soll, weil ich mir bei Gott nicht vorstellen kann, wo und wie man das in der Realität mal brauchen kann. Nun weiß ich aber deutlich mehr mit lokalen und globalen Minima anzufangen und bin dadurch dieses Wochenende sehr glücklich 😎🙃Anyway: Statistik! Statistik, Algorithmen und Optimierungsprobleme. Das kann man sich alles ganz plastisch bei diesem Artikel zu Fairness bei Algorithmen anschauen, die von Richter:innen eingesetzt werden. Artikel anklicken und “spielen” lohnt sehr! In den USA dürfen — wie auch in vielen anderen Ländern und auf den ersten Blick zu recht — Merkmale wie “race” nicht erfasst werden, um nicht zu diskriminieren. Dennoch kommt dieses Merkmal bei der Beurteilung, ob jemand auf Kaution frei kommt, oder im Gefängnis auf seinen oder ihren Prozess warten muss durch und Afroamerikaner:innen landen deutlich häufiger im Gefängnis, obwohl ihre Prognose eine gute ist, als Weiße. Das Risiko, falsch-positiv eingeordnet zu werden, also fälschlicherweise “hochriskant” zu sein, ist bei Afroamerikaner:innen deutlich höher. Fair ist das also nicht — und problematischer wird das ganze noch, da diese Algorithmen von privatwirtschaftlichen Unternehmen erstellt werden und eine Kontrolle aufgrund von Geschäftsgeheimnissen nicht möglich ist. Klickt Euch mal durch!

Lesenswert zu diesem Thema ist auch dieser Artikel aus The Atlantic, über Google und dessen Versuch die eigene Gesichtserkennungssoftware besser zu machen. Die funktionierte nämlich bei schwarzen Gesichtern nicht so gut, also wollte man Fotos von Menschen mit dunkler Hautfarbe sammeln, um damit die Software zu trainieren. Das passierte allerdings unter fragwürdigen Umständen: Teams liefen in Städten rum und boten $5 Starbucks Gutscheine für Aufnahmen des Gesichts an. Insbesondere auf Obdachlose ging man zu, da man hier eine deutlich höhere Bereitschaft vermutete. Allerdings wurde niemand darüber aufgeklärt, wofür diese Aufnahmen benötigt werden. Google hat das Vorgehen mittlerweile gestoppt.

Ebenfalls problematisch ist der Einsatz von algorithmischen Systemen in Wohlfahrtssystemen, was bereits in zahlreichen Ländern der Fall ist. Hier werden Arme häufig noch stärker drangsaliert und diskriminiert, bzw. überwacht, als es ohne schon der Fall ist. Hier muss ganz klar transparent darüber informiert werden, wo solche Systeme eingesetzt werden, wie und wo man Widerspruch einlegen kann und es muss ganz klar überprüft werden, ob die Entscheidungen — oder bestenfalls “nur” Informationsgrundlagen aus diesen Systemen wirklich besser und fairer sind, als die analoge Handhabung: “Good use of data can be hugely beneficial in helping councils make services more targeted and effective … But it is important to note that data is only ever used to inform decisions and not make decisions for councils.” Ist dies nicht der Fall, sollte nicht digitalisiert werden. Eine komplett digitale Welt darf schließlich nicht das Optimum sein, nach dem wir streben.

Mit alg yb 02

Can you make AI fairer than a judge? Play our courtroom algorithm game — MIT Technology Reviewwww.technologyreview.com

Anonymisierte Daten — hört sich erstmal super an. Vor allem so, dass man nicht zurückverfolgen kann, wem ein Datensatz gehört. Weit gefehlt vermutlich ist es einigen von Euch auch nicht neu, aber mit nur drei Datenpunkten, zum Beispiel Geburtsdatum, Geschlecht und PLZ gibt es eine ziemlich hohe Wahrscheinlichkeit, dass man genau Dich im Datensatz aufspürt. Wie hoch diese ist, kann man hier mal testen — allerdings nur mit PLZ aus UK und US, aber als gerade geouteter kleiner Statistikfan, würde ich mal sagen, 41%, wie in meinem Fall, ist jetzt nicht gerade wenig, dafür, dass der Datensatz ja eigentlich anonymisiert ist. Und mit ein paar Datenpunkten mehr, geht das natürlich noch viel besser. Daher besser auf “Differential Privacy” setzen. Damit kann man Daten dann auch nutzen. Wie das geht, könnt Ihr Euch hier ansehen.

Privacy getty

You’re very easy to track down, even when your data has been anonymized — MIT Technology Reviewwww.technologyreview.com

Im Berliner Kammergericht tippen sie wieder auf Schreibmaschinen und faxen durch die Gegend. Grund ist der Befall der IT mit der Schadsoftware Emotet. Wie diese in die Systeme eindringen konnte ist noch nicht klar, aber bisher bekannt ist, dass IT-Sicherheit dort kein präsentes Thema war. Private USB-Sticks von Richterinnen und Mitarbeitern wurden für den Transport von Dokumenten an den heimischen Rechner genutzt. Wenigsten etwas zu Gute halten muss man ihnen, dass die IT-Ausrüstung am Gericht so schlecht war, dass sie nur an privaten Geräten ordentlich arbeiten konnten. IT-Sicherheitsschulungen etc. scheint es nicht gegeben zu haben. “[D]as ist nur ein Thema für die Systemadministratoren [in der Justiz]”, sagt Stefan Hessel von der Universität des Saarlands und weist in seinem Interview mit LTO auf die weiteren, schwerwiegenden Gefahren hin, die der Justiz nicht nur bereits jetzt, sondern vor allem mit zunehmender Digitalisierung des Justizwesens drohen.

Pc zuschnitt

IT-Rechtler zu Hackerangriffen auf Gerichte: “Das war noch ein eher harm­loser Angriff”www.lto.de

WHAT TO HEAR

1200x630wp

‎Planet B | Ideen für den Neuanfang: Algorithmen, Ethik und Künstliche Intelligenz — Lorena Jaume-Palasi on Apple Podcastspodcasts.apple.com

Lorena Jaume-Palasi ist einer der schlausten Menschen, die ich kenne und daher habt Ihr keine Wahl, Ihr müsst Euch diesen Podcast mit ihr anhören!

WHAT TO WATCH

WHERE TO GO

United Nations of Innovation — #HackingDemocracy

Ein Kongress der Friedrich-Naumann-Stiftung in Kooperation mit polisphere. Ich moderiere den ganzen Tag, die Highlights sind ein Impuls von Audrey Tang, der Ministerin für Digitales aus Taiwan und ein Panel mit Philipp Amthor, Laura-Kristine Krause, Konstantin Kuhle und Laura Zimmermann. Am 6. November 2019 in Berlin. Anmeldung über die Webseite. Zur Einstimmung dieser Text von Audrey Tang, Digitalministerin in Taiwan.

Algomon hashtag rot o 1

Leitlinien zum ethischen Umgang mit Algorithmen-Monitoring #AlgoMon | Initiative D21initiatived21.de

Wie könnten algorithmische Systeme reguliert werden? Welche Herausforderungen und Handlungsempfehlungen gibt es? Am 20. November 2019 werden die Leitlinien aus der Arbeitsgruppe “Algorihmen Monitoring” mit einem großen Rahmenprogramm vorgestellt. Ab 16:30 Uhr in Berlin. Anmeldung über die Webseite.

Tls 2 e1492546284325

Transcultural Leadership Summit | Zeppelin University | Ticketstranscultural-leadershipsummit.com

Ich bin am 14. und 15. November beim Transcultural Leadership Summit an der Zeppelin Universität. Tickets und Infos gibts über die Webseite.

Wenn Ihr Veranstaltungen habt, die hier rein sollen, schickt sie mir gerne!

WHAT TO READ

WHAT I LIKED

SHARE IT!

chairwoman @loadev | digital policy & civil rights | www.anncathrinriedel.de

chairwoman @loadev | digital policy & civil rights | www.anncathrinriedel.de