Translate page with Google

Pulitzer Center Update July 2, 2024

Appel à candidature pour les bourses du Pulitzer Center sur la redevabilité en matière d'IA (2024-2025)

Author:
Image
Se abre la convocatoria de propuestas para las becas de Monitoreo de Algoritmos (AI Accountability) del Pulitzer Center

 

Le Pulitzer Center accepte désormais les candidatures pour sa troisième cohorte (2024-2025) de bourses de redevabilité en intelligence artificielle (IA).

L'IA et d'autres technologies prédictives ont été utilisées pour prendre des décisions politiques, comprendre les maladies, enseigner à nos enfants et surveiller notre travail pendant des années. L’engouement médiatique autour de l'IA générative accélère aujourd'hui la diffusion de ces systèmes alors que les citoyens n'ont que peu d'informations sur leur fonctionnement, sur ceux qui en tirent profit et sur ceux qui en pâtissent.

Grâce aux bourses de l’AI Accountability Fellowships, le Pulitzer Center compte soutenir des projets de reportage approfondis et à fort impact qui documentent et expliquent les opportunités, les inconvénients et les questions de réglementation et de travail qui entourent les systèmes d'IA. Le programme de bourses offre aux journalistes sélectionnés un soutien financier, une communauté de pairs, un mentorat et une formation leur permettant de poursuivre des projets de reportage approfondis qui interrogent la façon dont les systèmes d'IA sont financés, construits et déployés par les entreprises, les gouvernements et d'autres acteurs puissants.

Lancées en 2022, les bourses de l’AI Accountability ont déjà soutenu 18 journalistes de cinq continents différents. Les précédents boursiers ont réalisé un vaste éventail de reportages approfondis qui nous présentent un aperçu nuancé des conséquences des technologies de l'IA dans la vie réelle. Leurs reportages ont déclenché des réformes politiques, des enquêtes officielles et ont incité les journaux universitaires à lancer leurs propres enquêtes et les étudiants poètes à se pencher sur la question de la responsabilité de l'IA.

Bourses spécialisées

Le Centre Pulitzer recrute huit à dix journalistes du monde entier pour réaliser des reportages sur l'impact des systèmes algorithmiques et automatisés dans leurs communautés. Nous encourageons les journalistes du Sud et des communautés sous-représentées dans les médias à envoyer leur candidature.

Bien que nous acceptions les projets portant sur un large éventail de questions, nous mettons cette année l'accent sur certains sujets. Nous souhaitons soutenir au moins un projet sur la transparence et la gouvernance dans le domaine de l'intelligence artificielle. Il s'agit notamment de projets qui suivent l'argent au-delà des frontières, qui mettent en lumière les chaînes d'approvisionnement opaques et nuisibles de l'IA ou qui rendent compte de la législation, des pratiques commerciales et des organisations qui exacerbent le manque de responsabilité et de transparence des systèmes d'IA.


 

Les candidatures pour les bourses 2024-2025 sur la redevabilité en matière d'IA sont désormais ouvertes. La date limite est fixée au 10 août 2024.
 

Pour plus d'informations, cliquez ici. Postulez ici.


 


 

Aperçu de la bourse et exigences

La bourse, d'une durée de dix mois, débute en septembre 2024. Les journalistes sélectionnés comme AI Accountability Fellows recevront jusqu'à 20 000 dollars pour poursuivre leurs projets de reportage. Les fonds peuvent être utilisés pour payer les demandes de documents, les frais de déplacement, l'analyse des données et les allocations, entre autres coûts. En outre, les boursiers auront accès à des mentors de différents domaines et à une formation pertinente avec un groupe de pairs qui les aidera à renforcer leurs projets de reportage.

Les candidats retenus devront participer à des réunions mensuelles obligatoires d'une durée de 90 minutes et échanger avec d'autres boursiers dans le cadre de réunions virtuelles et sur la plateforme en ligne dédiée à la communauté. Ces collaborations et la participation aux sessions de formation et aux réunions sont des exigences du programme de bourses. Travailler et apprendre avec un groupe diversifié de journalistes du monde entier peut mettre en lumière des liens imprévus entre les sujets et renforcer les projets de chacun grâce à de nouvelles perspectives. Si vous travaillez sur un bon sujet mais que vous vous n'êtes pas en mesure de respecter les exigences du programme de bourses, vous pouvez postuler à une bourse de reportage sur l'intelligence artificielle.

Nous exigeons également le partage des méthodologies et des leçons apprises afin que chaque article puisse inspirer d'autres salles de presse poursuivant des projets similaires.

Pour en savoir plus sur la bourse, consultez la foire aux questions.

La bourse sur la responsabilité en matière d'IA est un programme du réseau de responsabilité en matière d'IA du Centre Pulitzer. Ce réseau a été lancé en 2022 afin d'élargir et de diversifier le champ des journalistes qui travaillent sur l'IA et avec l'IA dans l'intérêt du public. Le réseau est géré par Boyoung Lim, Éditrice senior du Centre Pulitzer, avec le soutien de Marina Walker Guevara, rédactrice en chef exécutive, et de l'équipe éditoriale du Centre Pulitzer.

Les autres programmes soutenus par l'AI Accountability Network sont les suivants :
 

  • Les Subventions de reportage sur l'apprentissage automatique soutiennent les journalistes qui souhaitent utiliser l'apprentissage automatique pour accroître leur compétence en matière de reportages sur les projets de big data.
  • Les AI Reporting Grants soutiennent des projets de reportage en profondeur réalisés à court terme qui explorent l'impact des systèmes d'IA sur les communautés à travers le monde.
  • L'AI Spotlight Series est une série de formations en ligne, gratuites, conçues pour doter les journalistes et les rédacteurs en chef des connaissances et des compétences nécessaires pour couvrir et développer la couverture de l'IA et de sa profonde influence sur la société.

Le réseau AI Accountability Network est financé par l'Open Society Foundations (OSF), la MacArthur Foundation, Notre Dame-IBM Technology Ethics Lab, ainsi que par des donateurs individuels et des fondations qui soutiennent notre travail de manière plus générale.
 

RELATED INITIATIVES

Logo: The AI Accountability Network

Initiative

AI Accountability Network

AI Accountability Network

RELATED TOPICS

an orange halftone illustration of a hand underneath a drone

Topic

AI Accountability

AI Accountability
technology and society

Topic

Technology and Society

Technology and Society