Derrière la magie que renferme l’intelligence artificielle générative, se cache tout un ensemble technique de programmeurs, chargés de faire en sorte que tout fonctionne comme il se doit. Une partie de cette équipe, les ingénieurs de prompts, sont responsables d’évaluer les réponses fournies par l’IA et leur véracité.
Ce schéma de travail est généralement le même dans toutes les grandes entreprises technologiques, comme c’est le cas de OpenAI ou Google. Cependant, cette dernière a effectué quelques changements assez discutables dans sa manière de travailler. Des changements qui, dans le pire des cas, pourraient affecter la fiabilité de Gemini.
Dans le but d’améliorer et d’affiner Gemini, Google fait appel aux services de GlobalLogic, une entreprise de sous-traitance appartenant à Hitachi. Selon TechCrunch, Google aurait exigé aux employés de GlobalLogic d’évaluer les réponses de Gemini même dans des domaines en dehors de leur expertise.
Comme on pouvait s’y attendre, cette décision a suscité de la controverse concernant le manque de précision et de fiabilité de ces évaluations. Certains pensent que ce mouvement pourrait être perçu comme irresponsable et générer de la méfiance du public envers Gemini.

Il faut noter qu’avant ce changement, les travailleurs pouvaient refuser d’évaluer certaines questions et réponses si elles échappaient à leurs connaissances. Désormais, ce ne sera plus le cas.
Dans les documents examinés par TechCrunch, il était clair que si le travailleur n’avait pas l’expérience nécessaire pour évaluer certains indicateurs, la tâche devait être écartée. Dans les nouvelles directives, il est précisé qu’aucune question ne doit être omise et qu’il faut seulement « évaluer les parties de la question qu’ils comprennent ».
Pour le moment, il n’y a que deux exceptions : il n’est pas possible de répondre s’il y a un manque total d’informations ou s’il y a un contenu offensant nécessitant des autorisations spéciales.