Bibliothèque de l'ESJ Lille
Détail de l'auteur
Documents disponibles écrits par cet auteur
Affiner la recherche
[article]
Titre : |
Transparents mais corruptibles: les algorithmes au défi des comportements «adversariaux» dans le domaine journalistique |
Type de document : |
texte imprimé |
Auteurs : |
Antonin Descampe, Auteur ; François-Xavier Standaert, Auteur |
Année de publication : |
2021 |
Langues : |
Français (fre) |
Note de contenu : |
Dans le domaine du journalisme computationnel, l’automatisation de la production de l’information invite à s’interroger sur la pertinence des décisions automatiques et les moyens de la garantir. Cette « responsabilité algorithmique » est souvent ramenée à une question de transparence, garantissant qu’un algorithme a été conçu de manière conforme à l’intention affichée. Deux études de cas impliquant une catégorisation automatique d’articles de presse montrent pourtant que la transparence n’est pas suffisante : des exemples « adversariaux » sont en mesure de détourner un algorithme de son comportement attendu. Ce constat appelle à inclure dans l’évaluation de la performance d’un algorithme la robustesse face à d’éventuels comportements « adversariaux ». Les difficultés techniques posées par cette robustesse plaident notamment pour une implication accrue des journalistes comme garants des décisions automatiques. |
En ligne : |
https://cahiersdujournalisme.org/V2N7/CaJ-2.7-R039.html |
in Les Cahiers du journalisme > 7 (2e semestre 2021)
[article] Transparents mais corruptibles: les algorithmes au défi des comportements «adversariaux» dans le domaine journalistique [texte imprimé] / Antonin Descampe, Auteur ; François-Xavier Standaert, Auteur . - 2021. Langues : Français ( fre) in Les Cahiers du journalisme > 7 (2e semestre 2021)
Note de contenu : |
Dans le domaine du journalisme computationnel, l’automatisation de la production de l’information invite à s’interroger sur la pertinence des décisions automatiques et les moyens de la garantir. Cette « responsabilité algorithmique » est souvent ramenée à une question de transparence, garantissant qu’un algorithme a été conçu de manière conforme à l’intention affichée. Deux études de cas impliquant une catégorisation automatique d’articles de presse montrent pourtant que la transparence n’est pas suffisante : des exemples « adversariaux » sont en mesure de détourner un algorithme de son comportement attendu. Ce constat appelle à inclure dans l’évaluation de la performance d’un algorithme la robustesse face à d’éventuels comportements « adversariaux ». Les difficultés techniques posées par cette robustesse plaident notamment pour une implication accrue des journalistes comme garants des décisions automatiques. |
En ligne : |
https://cahiersdujournalisme.org/V2N7/CaJ-2.7-R039.html |
|