UK use of predictive policing is racist and should be banned, says Amnesty

Sun, 23 Feb 2025 11:19:25 +1100

Andrew Pam <xanni [at] glasswings.com.au>

Andrew Pam
<https://www.theguardian.com/uk-news/2025/feb/19/uk-use-of-predictive-policing-is-racist-and-should-be-banned-says-amnesty>

"British policing’s use of algorithms and data to predict where crime will
happen is racist and picks on the poor, a report from Amnesty International
says.

The human rights group says predictive policing tools, used by most police
forces in the UK, are so unfair, dangerous and discriminatory that they should
be banned.

Amnesty says the data driving the predictive systems and assumptions they rely
on come from established “racist” police practices such as stop and search,
where most stops find no wrongdoing and which overly targets Black people. That
in turn is corrupting cutting-edge police predictive crime systems, billed as
part of the future of battling crime.

Police say predictive policing helps cut crime, allowing officers and resources
to be deployed where they are most needed.

Predictive policing involves computer programmes that use data and algorithmic
models to estimate where crimes are most likely to happen. It was once the
stuff of dystopian fiction, for example in the Steven Spielberg film Minority
Report
, but is an increasingly popular tool for law enforcement.

Amnesty says that of the 45 local forces across the UK, “32 have used
geographic crime prediction, profiling or risk-prediction tools, and 11 forces
have used individual prediction, profiling or risk-prediction tools”.

In its report, Automated Racism, to be released on Thursday, Amnesty says:
“These systems are, in effect, a modern method of racial profiling, reinforcing
racism and discrimination in policing.

“These systems are developed and operated using data from policing and the
criminal legal system. That data reflects the structural and institutional
racism and discrimination in policing and the criminal legal system, such as in
police intelligence reports, suspect data, stop-and-search or arrest data.
There is inherent bias in that data.”

The report says use of predictive policing led to a spike in stop and search in
Basildon, Essex, from September 2020 to March 2021. “The force stopped and
searched more people in Basildon than the rest of the entire police force area.
They stopped and searched Black people in Basildon almost 3.6 times more than
white people … [and] used force against Black people almost four times as much
as white people.”"

Cheers,
       *** Xanni ***
--
mailto:xanni@xanadu.net               Andrew Pam
http://xanadu.com.au/                 Chief Scientist, Xanadu
https://glasswings.com.au/            Partner, Glass Wings
https://sericyb.com.au/               Manager, Serious Cybernetics

Comment via email

Home E-Mail Sponsors Index Search About Us