Personenbezogenes Predictive Policing: Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Elektronisch E-Book |
Sprache: | German |
Veröffentlicht: |
Baden-Baden
Nomos Verlagsgesellschaft
2020
|
Ausgabe: | 1st ed |
Schriftenreihe: | Schriften zur Kriminologie
v.19 |
Schlagworte: | |
Online-Zugang: | HWR01 |
Beschreibung: | Description based on publisher supplied metadata and other sources |
Beschreibung: | 1 Online-Ressource (400 Seiten) |
ISBN: | 9783748903482 |
Internformat
MARC
LEADER | 00000nmm a2200000zcb4500 | ||
---|---|---|---|
001 | BV048220392 | ||
003 | DE-604 | ||
005 | 00000000000000.0 | ||
007 | cr|uuu---uuuuu | ||
008 | 220516s2020 |||| o||u| ||||||ger d | ||
020 | |a 9783748903482 |9 978-3-7489-0348-2 | ||
035 | |a (ZDB-30-PQE)EBC6405218 | ||
035 | |a (ZDB-30-PAD)EBC6405218 | ||
035 | |a (ZDB-89-EBL)EBL6405218 | ||
035 | |a (OCoLC)1319631906 | ||
035 | |a (DE-599)BVBBV048220392 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a ger | |
049 | |a DE-2070s | ||
084 | |a PH 8400 |0 (DE-625)136499: |2 rvk | ||
100 | 1 | |a Sommerer, Lucia |e Verfasser |4 aut | |
245 | 1 | 0 | |a Personenbezogenes Predictive Policing |b Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
250 | |a 1st ed | ||
264 | 1 | |a Baden-Baden |b Nomos Verlagsgesellschaft |c 2020 | |
264 | 4 | |c ©2020 | |
300 | |a 1 Online-Ressource (400 Seiten) | ||
336 | |b txt |2 rdacontent | ||
337 | |b c |2 rdamedia | ||
338 | |b cr |2 rdacarrier | ||
490 | 0 | |a Schriften zur Kriminologie |v v.19 | |
500 | |a Description based on publisher supplied metadata and other sources | ||
505 | 8 | |a Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware | |
505 | 8 | |a 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse | |
505 | 8 | |a aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung | |
505 | 8 | |a bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot | |
505 | 8 | |a 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen | |
505 | 8 | |a Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse | |
650 | 0 | 7 | |a Algorithmus |0 (DE-588)4001183-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Gefahrenabwehr |0 (DE-588)4113681-0 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Kriminalprognose |0 (DE-588)4128163-9 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Täter |0 (DE-588)4058881-6 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Verbrechenskontrolle |0 (DE-588)4165735-4 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Informationelles Selbstbestimmungsrecht |0 (DE-588)4140250-9 |2 gnd |9 rswk-swf |
651 | 7 | |a Deutschland |0 (DE-588)4011882-4 |2 gnd |9 rswk-swf | |
655 | 7 | |0 (DE-588)4113937-9 |a Hochschulschrift |2 gnd-content | |
689 | 0 | 0 | |a Deutschland |0 (DE-588)4011882-4 |D g |
689 | 0 | 1 | |a Gefahrenabwehr |0 (DE-588)4113681-0 |D s |
689 | 0 | 2 | |a Verbrechenskontrolle |0 (DE-588)4165735-4 |D s |
689 | 0 | 3 | |a Täter |0 (DE-588)4058881-6 |D s |
689 | 0 | 4 | |a Kriminalprognose |0 (DE-588)4128163-9 |D s |
689 | 0 | 5 | |a Algorithmus |0 (DE-588)4001183-5 |D s |
689 | 0 | 6 | |a Informationelles Selbstbestimmungsrecht |0 (DE-588)4140250-9 |D s |
689 | 0 | |5 DE-604 | |
776 | 0 | 8 | |i Erscheint auch als |n Druck-Ausgabe |a Sommerer, Lucia |t Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |d Baden-Baden : Nomos Verlagsgesellschaft,c2020 |z 9783848762330 |
912 | |a ZDB-30-PQE | ||
999 | |a oai:aleph.bib-bvb.de:BVB01-033601137 | ||
966 | e | |u https://ebookcentral.proquest.com/lib/hwr/detail.action?docID=6405218 |l HWR01 |p ZDB-30-PQE |q HWR_PDA_PQE |x Aggregator |3 Volltext |
Datensatz im Suchindex
_version_ | 1804184000999194624 |
---|---|
adam_txt | |
any_adam_object | |
any_adam_object_boolean | |
author | Sommerer, Lucia |
author_facet | Sommerer, Lucia |
author_role | aut |
author_sort | Sommerer, Lucia |
author_variant | l s ls |
building | Verbundindex |
bvnumber | BV048220392 |
classification_rvk | PH 8400 |
collection | ZDB-30-PQE |
contents | Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse |
ctrlnum | (ZDB-30-PQE)EBC6405218 (ZDB-30-PAD)EBC6405218 (ZDB-89-EBL)EBL6405218 (OCoLC)1319631906 (DE-599)BVBBV048220392 |
discipline | Rechtswissenschaft |
discipline_str_mv | Rechtswissenschaft |
edition | 1st ed |
format | Electronic eBook |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>12162nmm a2200649zcb4500</leader><controlfield tag="001">BV048220392</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">00000000000000.0</controlfield><controlfield tag="007">cr|uuu---uuuuu</controlfield><controlfield tag="008">220516s2020 |||| o||u| ||||||ger d</controlfield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783748903482</subfield><subfield code="9">978-3-7489-0348-2</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(ZDB-30-PQE)EBC6405218</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(ZDB-30-PAD)EBC6405218</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(ZDB-89-EBL)EBL6405218</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1319631906</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)BVBBV048220392</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-2070s</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">PH 8400</subfield><subfield code="0">(DE-625)136499:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Sommerer, Lucia</subfield><subfield code="e">Verfasser</subfield><subfield code="4">aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Personenbezogenes Predictive Policing</subfield><subfield code="b">Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">1st ed</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Baden-Baden</subfield><subfield code="b">Nomos Verlagsgesellschaft</subfield><subfield code="c">2020</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">©2020</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 Online-Ressource (400 Seiten)</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="490" ind1="0" ind2=" "><subfield code="a">Schriften zur Kriminologie</subfield><subfield code="v">v.19</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Description based on publisher supplied metadata and other sources</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Algorithmus</subfield><subfield code="0">(DE-588)4001183-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Gefahrenabwehr</subfield><subfield code="0">(DE-588)4113681-0</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Kriminalprognose</subfield><subfield code="0">(DE-588)4128163-9</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Täter</subfield><subfield code="0">(DE-588)4058881-6</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Verbrechenskontrolle</subfield><subfield code="0">(DE-588)4165735-4</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Informationelles Selbstbestimmungsrecht</subfield><subfield code="0">(DE-588)4140250-9</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="651" ind1=" " ind2="7"><subfield code="a">Deutschland</subfield><subfield code="0">(DE-588)4011882-4</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="655" ind1=" " ind2="7"><subfield code="0">(DE-588)4113937-9</subfield><subfield code="a">Hochschulschrift</subfield><subfield code="2">gnd-content</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Deutschland</subfield><subfield code="0">(DE-588)4011882-4</subfield><subfield code="D">g</subfield></datafield><datafield tag="689" ind1="0" ind2="1"><subfield code="a">Gefahrenabwehr</subfield><subfield code="0">(DE-588)4113681-0</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="2"><subfield code="a">Verbrechenskontrolle</subfield><subfield code="0">(DE-588)4165735-4</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="3"><subfield code="a">Täter</subfield><subfield code="0">(DE-588)4058881-6</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="4"><subfield code="a">Kriminalprognose</subfield><subfield code="0">(DE-588)4128163-9</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="5"><subfield code="a">Algorithmus</subfield><subfield code="0">(DE-588)4001183-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="6"><subfield code="a">Informationelles Selbstbestimmungsrecht</subfield><subfield code="0">(DE-588)4140250-9</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Druck-Ausgabe</subfield><subfield code="a">Sommerer, Lucia</subfield><subfield code="t">Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose</subfield><subfield code="d">Baden-Baden : Nomos Verlagsgesellschaft,c2020</subfield><subfield code="z">9783848762330</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">ZDB-30-PQE</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-033601137</subfield></datafield><datafield tag="966" ind1="e" ind2=" "><subfield code="u">https://ebookcentral.proquest.com/lib/hwr/detail.action?docID=6405218</subfield><subfield code="l">HWR01</subfield><subfield code="p">ZDB-30-PQE</subfield><subfield code="q">HWR_PDA_PQE</subfield><subfield code="x">Aggregator</subfield><subfield code="3">Volltext</subfield></datafield></record></collection> |
genre | (DE-588)4113937-9 Hochschulschrift gnd-content |
genre_facet | Hochschulschrift |
geographic | Deutschland (DE-588)4011882-4 gnd |
geographic_facet | Deutschland |
id | DE-604.BV048220392 |
illustrated | Not Illustrated |
index_date | 2024-07-03T19:50:30Z |
indexdate | 2024-07-10T09:32:23Z |
institution | BVB |
isbn | 9783748903482 |
language | German |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-033601137 |
oclc_num | 1319631906 |
open_access_boolean | |
owner | DE-2070s |
owner_facet | DE-2070s |
physical | 1 Online-Ressource (400 Seiten) |
psigel | ZDB-30-PQE ZDB-30-PQE HWR_PDA_PQE |
publishDate | 2020 |
publishDateSearch | 2020 |
publishDateSort | 2020 |
publisher | Nomos Verlagsgesellschaft |
record_format | marc |
series2 | Schriften zur Kriminologie |
spelling | Sommerer, Lucia Verfasser aut Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose 1st ed Baden-Baden Nomos Verlagsgesellschaft 2020 ©2020 1 Online-Ressource (400 Seiten) txt rdacontent c rdamedia cr rdacarrier Schriften zur Kriminologie v.19 Description based on publisher supplied metadata and other sources Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse Algorithmus (DE-588)4001183-5 gnd rswk-swf Gefahrenabwehr (DE-588)4113681-0 gnd rswk-swf Kriminalprognose (DE-588)4128163-9 gnd rswk-swf Täter (DE-588)4058881-6 gnd rswk-swf Verbrechenskontrolle (DE-588)4165735-4 gnd rswk-swf Informationelles Selbstbestimmungsrecht (DE-588)4140250-9 gnd rswk-swf Deutschland (DE-588)4011882-4 gnd rswk-swf (DE-588)4113937-9 Hochschulschrift gnd-content Deutschland (DE-588)4011882-4 g Gefahrenabwehr (DE-588)4113681-0 s Verbrechenskontrolle (DE-588)4165735-4 s Täter (DE-588)4058881-6 s Kriminalprognose (DE-588)4128163-9 s Algorithmus (DE-588)4001183-5 s Informationelles Selbstbestimmungsrecht (DE-588)4140250-9 s DE-604 Erscheint auch als Druck-Ausgabe Sommerer, Lucia Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose Baden-Baden : Nomos Verlagsgesellschaft,c2020 9783848762330 |
spellingShingle | Sommerer, Lucia Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse Algorithmus (DE-588)4001183-5 gnd Gefahrenabwehr (DE-588)4113681-0 gnd Kriminalprognose (DE-588)4128163-9 gnd Täter (DE-588)4058881-6 gnd Verbrechenskontrolle (DE-588)4165735-4 gnd Informationelles Selbstbestimmungsrecht (DE-588)4140250-9 gnd |
subject_GND | (DE-588)4001183-5 (DE-588)4113681-0 (DE-588)4128163-9 (DE-588)4058881-6 (DE-588)4165735-4 (DE-588)4140250-9 (DE-588)4011882-4 (DE-588)4113937-9 |
title | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_auth | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_exact_search | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_exact_search_txtP | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_full | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_fullStr | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_full_unstemmed | Personenbezogenes Predictive Policing Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
title_short | Personenbezogenes Predictive Policing |
title_sort | personenbezogenes predictive policing kriminalwissenschaftliche untersuchung uber die automatisierung der kriminalprognose |
title_sub | Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose |
topic | Algorithmus (DE-588)4001183-5 gnd Gefahrenabwehr (DE-588)4113681-0 gnd Kriminalprognose (DE-588)4128163-9 gnd Täter (DE-588)4058881-6 gnd Verbrechenskontrolle (DE-588)4165735-4 gnd Informationelles Selbstbestimmungsrecht (DE-588)4140250-9 gnd |
topic_facet | Algorithmus Gefahrenabwehr Kriminalprognose Täter Verbrechenskontrolle Informationelles Selbstbestimmungsrecht Deutschland Hochschulschrift |
work_keys_str_mv | AT sommererlucia personenbezogenespredictivepolicingkriminalwissenschaftlicheuntersuchunguberdieautomatisierungderkriminalprognose |