Les algorithmes décident-ils de tout

ce que nous pouvons ou pas lire ?

Techno: Proposé par Max Bertin actualisé le 2 février 2025.

Lors de la survenue de DeepSeek dans l'espace économique des IA génératives américaines, il fut rapidement question de l'éventualité d'une censure et nombreux furent ceux qui, dans les médias, s'en firent l'écho.

image DeepSeek et la censure

La même question ne fut jamais évoquée à propos de ChatGPT et pourtant une brève expérience me laisse croire qu'Anastasie sévit également chez OpenAI.

Avec ChatGPT, après plusieurs prompts d'ordre général dans lesquels aucuns noms n'étaient cités, chacun d'eux reçus une réponse accompagnée d'une relance.
Dans le dernier prompt émis, le nom de Trump apparaissait. Le retour se fit sous forme de conclusion sans aucune relance.

Si la censure n'est pas aussi formelle que celle rapportée à propos de DeepSeek, elle existe néanmoins puisque la "conversation" a tourné court.

Par définition les agents conversationnels ne sont pas neutres puisque dépendant de LLM dont l'entraînement peut différer selon les sources les alimentant et produire une réponse orientée selon la culture, la religion, la langue, la politique, etc

Au-delà des sources utilisées, le traitement des données est fait par des algorithmes qui, eux, peuvent être biaisés ou tout du moins produire un résultat pouvant heurter les convictions, les connaissances ou les croyances de certains.

Des algorithmes peuvent, aussi, être volontairement limités, biaisés pour ne pas aborder certains sujets ou fournir des réponses dilatoires ou comme dans mon cas, mettre fin à la "conversation".

Ultime considération: Le silence étant la forme absolue de censure.

Les prompts échangés avec ChatGPT sont disponibles sur cette page.

Print Friendly and PDF - fleche retour au debut
.