Translate page with Google

Pulitzer Center Update April 17, 2023

Appel à candidatures pour les bourses du Pulitzer Center sur la Redevabilité de l’IA

Author:
Appel a propositions: La date limite est 1er juillet 2023

Un nouveau partenariat avec le Digital Witness Lab de l'université de Princeton soutiendra un journaliste qui réalise un reportage sur l'influence des plateformes de messages sur le discours public.


Le Pulitzer Center accepte les candidatures pour la deuxième cohrte de ses Artificial Intelligence Accountability Fellowship (bourses de recherche sur la redevabilité de l'intelligence artificielle). 

Les gouvernements et les entreprises utilisent l'IA pour prendre des décisions qui changent la vie des citoyens dans plusieurs domaines: le maintien de l'ordre, la justice pénale, la sécurité sociale, les recrutements de travail et bien d'autres encore. S'ils ne sont pas contrôlés, ces systèmes peuvent causer du mal à certains des membres les plus vulnérables de la société, en aggravant les disparités économiques et en amplifiant les préjugés liés à la race, au sexe et aux compétences. Les bourses AI Accountability Fellowship du Pulitzer Center soutiennent des reportages critiques et approfondis sur l'impact des systèmes d'IA dans les communautés du monde entier et favorisent l'émergence d'un réseau mondial de journalistes qui font des reportages et apprennent ensemble sur cette question urgente et peu connue du grand public.

"Il ne s'agit pas seulement d'une question de technologie, mais aussi d'équité et de redevabilité", a déclaré Marina Walker Guevara, éditeur exécutif du Pulitzer Center. "Alors que l'IA suscite autant la hype que le désespoir, nous construisons une communauté mondiale de journalistes qui se sont engagés à rapporter cette question avec compétence, nuance et impact."

Au cours de sa première année, la bourse a soutenu dix boursiers pour réaliser des reportages dans dix pays. La cohorte 2022 des AI Accountability Fellowship a réalisé des reportages sur des thèmes cruciaux pour l'équité et les droits humains, comme l'impact de l'IA sur l'économie informel, la sécurité sociale, le maintien de l'ordre, la migration et le contrôle des frontières. 

Bourses sur la Redevabilité de l’IA

Le Pulitzer Center recrute six à huit journalistes du monde entier pour faire des reportages sur les impacts des algorithmes et des systèmes automatisés dans leurs communautés.

La bourse, qui durera dix mois, commencera en septembre et offrira à chaque journaliste jusqu'à 20 000 dollars pour réaliser ses projets. Les fonds peuvent être utilisés pour payer les demandes de documents, les frais de déplacement, l'analyse des données, rémunération, entre autres coûts. Par ailleurs, les boursiers auront accès à des mentors de différents domaines et à une formation pertinente avec un groupe qui les aidera à renforcer leurs projets de reportage.

Bien que nous acceptions les projets qui portent un large spectre de questions liées à l'impact de l'IA sur la société, cette année nous mettons en évidence certains sujets. Nous cherchons à soutenir au moins un projet qui examine l'intersection de l'IA et des conflits, de la guerre et de la paix. En partenariat avec Digital Witness Lab de l'Université de Princeton, nous recrutons également un projet qui se concentre sur le rôle que joue la plateforme WhatsApp dans l'influence du discours public au sein d'une communauté particulière

Le journaliste sélectionné pour la bourse partagée avec Digital Witness Lab aura la possibilité d'être conseillé par le célèbre journaliste d'investigation Surya Mattu, qui travaillait avec The Markup, et son équipe, et d'explorer des projets d'intérêt commun avec Digital Witness. Pour en savoir plus sur la bourse partagée avec Digital Witness Lab, veuillez cliquer ici.

 


Les candidatures pour les bourses de recherche sur la redevabilité de l'intelligence artificielle 2023-2024 sont maintenant ouvertes. La date limite est le 1er juillet 2023.

Posez votre candidature ici


 

L'AI Accountability Network a été lancée en 2022 pour élargir et diversifier le champ des journalistes qui font des reportages sur l'IA et avec l'IA dans l'intérêt public. Grâce à ses Subventions de Reportage Sur L'apprentissage Automatique, l'initiative soutient également les journalistes qui utilisent l'IA pour réaliser des enquêtes sur le big data. Le réseau est géré par l'éditeur sénior du Pulitzer Center, Boyoung Lim, avec le soutien de l'éditeur exécutive Marina Walker Guevara et de l'équipe éditoriale du Pulitzer Center. 

L'AI Accountability Network est financée par l'Open Society Foundations (OSF), le Wellspring Philanthropic Fund, ainsi que par des donateurs individuels et des fondations qui soutiennent notre travail de manière plus générale. D'autres donateurs pourraient nous rejoindre en 2023/2024.

 

RELATED INITIATIVES

Logo: The AI Accountability Network

Initiative

AI Accountability Network

AI Accountability Network

RELATED TOPICS

an orange halftone illustration of a hand underneath a drone

Topic

AI Accountability

AI Accountability