The tech optimism of PROBabLE Futures

‘PROBabLE Futures’ according to this announcement is an artificial intelligence project of several universities that shows involvement by academics and the compliance industry. The announcement shows that the partners have high confidence in artificial intelligence as a tool to prevent and detect crime:

PROBabLE Futures (Probabilistic AI Systems in Law Enforcement Futures) is a (…) endeavours to deliver an ‘operational-ready’ blueprint of an evidence-based, contextually informed and future-oriented framework for responsible AI in law enforcement and criminal justice.

The research of the PROBabLE Futures project team draws on the expertise of the Alan Turing Institute, the National Police Chiefs Council, police forces, the Home Office, JUSTICE (the legal charity) and three industry partners including Microsoft. The project’s focus is on probabilistic AI in policing and the wider criminal justice and law enforcement system – it will deliver tested and trusted advice and frameworks to commercial system developers and public sector bodies on when and how to deploy AI in this sector effectively and with the long-term trust of communities in mind. Activities will also include mock trials with AI outputs as evidence, applying lessons from prior technological developments to study the use of ‘Probabilistic AI’ in policing, intelligence, probation and wider criminal justice contexts.

Probabilistic systems supported by AI, such as facial recognition, predictive tools, large language models (LLMs) and network analysis are being introduced at pace into law enforcement. Whilst these systems offer potential benefits, decision-making based on ‘Probabilistic AI’ has serious implications for individuals. The key problem for responsible AI is that the uncertain or probable nature of outputs is often obscured or misinterpreted, and the underlying data is sensitive and of varying quality. If AI systems are to be used responsibly, attention must be paid to the chaining of systems and cumulative effects of AI systems feeding each other. PROBabLE Futures will review, question and evaluate the use and applications of probabilistic AI across different stages of the criminal justice system.

I’ll be interested to see if that optimism is justified.

 

NB There’s a lot of javascript on the university website:

Onbekend's avatar

About Ellen Timmer

Weblog: https://ellentimmer.com/ ||| Microblog: https://mastodon.nl/@ellent ||| Motto: goede bedoelingen rechtvaardigen geen slechte regels
Dit bericht werd geplaatst in English - posts in English on this blog, Financieel recht, onder meer Wft, Wtt, Fraude, witwasbestrijding, Wwft, Grondrechten, ICT, privacy, e-commerce, Strafrecht en getagd met , , , , , , , , , , , , . Maak de permalink favoriet.

5 Responses to The tech optimism of PROBabLE Futures

  1. rjg's avatar rjg schreef:

    Ik ben daar in het geheel niet gerust op. Het verleden laat weten dat de overheid zeer happig is op dit soort systemen. Zij zullen zich dit genoegen niet laten ontnemen. Heerlijk toch, al devianten achter de tralies.

    • Ellen Timmer's avatar Ellen Timmer schreef:

      Ik denk dat er wel goede bedoelingen achter zitten, maar men realiseert zich niet wat de beperkingen van de systemen zijn. Dat is nu ook al zichtbaar in alle affaires waar het met de digitale opsporing is mis gegaan.
      De grote vraag is of die goedbedoelende overheidsdienaren bereid zijn om te leren van de fouten uit het verleden.

      • rjg's avatar rjg schreef:

        Daar verschillen we toch van mening. Ik heb niet veel vertrouwen in goede bedoelingen. Ik geloof eerder dat het cynisme aan de macht is. Kijk naar onze regering. Die wetgeving aan zijn laars lapt. Kijk naar Trump. Die gooit gewoon iedereen er uit die zijn lijn niet volgt. Tot zover de goede bedoelingen van de overheidsdienaren. Die er overigens best zullen zijn. Maar die we wellicht ook niet moeten overschatten.

        Je moet wel heel vergevingsgezind zijn om die goede bedoelingen te zien. En dan is het ook nog eens de vraag wie nu de feitelijke macht in handen hebben. Multinationale ondernemingen zijn naar mijn smaak goede kanshebbers. En dan gaat het om hun belangen. Daar wordt AI gezien als de belofte van de (nabije) toekomst. Je kunt zelf vaststellen dat dat gepaard gaat met een enorm propagandaproject.

        De geschiedenis laat trouwens zien dat kwade toepassing van technologie op zeker ogenblik gebruikt gaat worden. Zodra men ijzer kon smelten was daar het zwaard. En dat zwaard werd niet zelden gebruikt om de eigen bevolking onder de duim te houden.

      • Ellen Timmer's avatar Ellen Timmer schreef:

        De VS is heel anders dan Nederland. Dat is al veel langer zo.

  2. Ellen Timmer's avatar Ellen Timmer schreef:

    Statewatch published the article New Technology, Old Injustice: Data-driven discrimination and profiling in police and prisons in Europe, from the summary:

    Police and criminal legal system authorities across Europe are increasingly using data-based systems and tools to ‘predict’ where crime will occur, to profile people as criminals and to assess the ‘risk’ of crime or criminality in the future.

    These so-called ‘predictions’, profiles and risk assessments influence police decisions, actions and interventions. These include surveillance and monitoring, questioning, stop and search, identity checks, being barred from employment, home raids, fines, use of force, detention, arrest, and deportation.
    These data-based systems and decisions also influence decisions throughout the criminal legal system: from detention and pre-trial detention, to prosecution, sentencing and probation.
    Outside of the criminal legal system, automated decisions can also influence or lead to other forms of punishment. For example, they may underpin denials of or restrictions on access to essential public services such as welfare or housing.

    Read the report by Statewatch (June 2025), that calls for a ban on predictive policing systems.

Plaats een reactie