L’État Français lance son grand projet de trucage de l’Intelligence Artificielle pour l’aider à lutter contre le racisme

Captain Harlock
Démocratie Participative
31 août 2019

Le problème de l’Intelligence Artificielle, si elle est laissée libre, c’est qu’elle calcule sur la base des informations brutes collectées en dehors de tout biais politique, culturel ou idéologique. Ce sont des mathématiques pures.

Seulement voilà, le Parti ne peut pas accepter que la vérité ne vienne troubler le jeu truqué grâce auquel il domine.

AFP :

L’intelligence artificielle est-elle sexiste et raciste? Elle donne régulièrement des résultats discriminatoires en reproduisant des biais humains, mais les acteurs des nouvelles technologies en prennent peu à peu conscience et tentent de les corriger.

Proposition n°1 : « Oh ! Si on laisse les robots calculer, ils constatent que les nègres et les femmes sont des nègres et des femmes ! »

Proposition n°2 : « Nous allons biaiser les résultats pour en finir avec les résultats biaisés ! »

Accrochez-vous, car ce n’est là que l’introduction d’un long exercice de pilpoul talmudique pour justifier l’utilisation de l’IA pour écraser les sociétés blanches.

« Un algorithme n’est qu’une suite de chiffres, donc responsable de rien, le problème vient de l’humain, et si nous n’y sommes pas attentifs, nous donnons naissance à des algorithmes discriminatoires« , accuse Salwa Toko, la présidente du Conseil national du numérique français, interrogée par l’AFP. Elle voit là un « enjeu de société, d’état de droit ».

Proposition n°1 : « Oh ! L’algorithme n’est responsable de rien ! »

Proposition n°2 : « Les algorithmes sont discriminatoires ! »

Cette dissociation, dans une même phrase, entre réalité et idéologie est typique des systèmes communistes. Au bout d’un temps, cette dissociation systématique produit un nouveau type de langage fondé sur le mensonge et l’hypocrisie.

Sa caractéristique est que l’idéologie a toujours droit de préséance sur la réalité. Mais cela a une conséquence : l’intensification du stress à mesure que les contradictions du système s’exacerbent et qu’on ne peut pas le dire publiquement.

Pour protéger le langage et ses codes grâce auxquels le système contrôle les esprits, les contre-mesures sont toujours les mêmes : surveiller, détecter et réprimer ceux qui pourraient soudainement voir que le roi est nu.

Cette gonzesse en charge de ce « Conseil National du Numérique » parle déjà « d’état de droit ». Bientôt, il sera question de « protéger la démocratie ».

Quand vous en arrivez à l’invocation de la mystique démocratique, le bras séculier hébraïque n’est plus très loin.

L’OCDE, dans un rapport de juin dernier, pointait également « les risques de transposition des biais du monde analogique vers le monde numérique » et encourageait la création d’un environnement sain d’accès aux données.

L’intelligence artificielle (« IA ») est basée sur l’apprentissage automatisé à partir de données insérées par le concepteur, que la machine analyse. Si cette matière première est biaisée, le résultat ne peut qu’en être faussé.

« Une partie de l’IA est encore bête et méchante, sans conscience artificielle« , estime auprès de l’AFP Jérôme Béranger, fondateur d’Adel, un label d’experts pluridisciplinaires qui évalue la conception et la mise en place des algorithmes d’un point de vue éthique.

« Oy goy, nous allons imprimer une (((conscience artificielle))) dans chaque robot pour être sûr que tu ne commettes pas d’erreur d’appréciation ! »

« Mission : protéger diversité, cible à éliminer : hommes blancs. Terminé. »

On appellera cette conscience (((Sky Net))).

De la conception de l’algorithme et de la constitution de la base de données jusqu’aux décisions finales de la machine, les stéréotypes et biais de l’humain influencent le résultat, souvent vu, à tort, comme une solution mathématique infaillible.

« Il y a plus d’hommes que de femmes qui travaillent dans les nouvelles technologies, c’est statistiquement la réalité. Maintenant si on crée un algorithme à partir de ces données, sans aucune correction, on va amener un biais dans le programme », qui finira par reproduire les inégalités, explique par exemple à l’AFP Anne-Laure Thieullent, spécialiste en intelligence artificielle chez le géant français des services informatiques Capgemini.

Anne-Laure veut qu’une garde de robots surveillent le goulag juif dans lequel nous vivons pour se sentir mieux.

Je ne suis pas sûr de vouloir donner ce genre de pouvoir à une idiote à chapeau rouge qui ne sait pas faire bouillir de l’eau ou coudre un pantalon.

Vraiment pas sûr.

Dans le secteur bancaire par exemple, un algorithme peut étudier des dossiers et proposer des montants de prêts. Mais si dans la base de données qu’on lui a fournie, les femmes empruntent moins que les hommes, l’algorithme va reproduire cette situation.

Aux Etats-Unis, le site de médias ProPublica a examiné les « notes de risque de récidive » octroyées il y a quelques années à des délinquants par un algorithme dans l’Etat de Floride, recherchant ceux d’entre eux qui ont été à nouveau condamnés ultérieurement pour évaluer l’exactitude de la prédiction. Les Afro-Américains étaient deux fois plus nombreux à avoir été jugés par erreur susceptibles de commettre un nouveau délit.

Les nègres, des criminels en puissance ?

D’où ce robot a sorti cette théorie ?

« A chaque fois qu’on souhaite appliquer une IA pour résoudre une question, il faut regarder s’il y a des biais humains qui existent déjà et qui pourraient se retranscrire dans le jeu de données », conseille Mme Thieullent.

« Cela fait deux ans que l’on pose les constats. Maintenant on est à un stade où il est intéressant de voir ce que les acteurs commencent à mettre en place », souligne Régis Chatellier, chargé d’études au pôle innovation de la Cnil, le gendarme français de la protection des données.

« Le gendarme ».

En France, on aime beaucoup rappeler aux gens qu’ils vivent dans un pays libre, en résidence surveillée.

Diverses initiatives tentent en effet de contrer ces biais, avec par exemple des labels d’audit des algorithmes et des bases de données comme Adel, ou encore des outils de correction des bases de données pour rééquilibrer la représentation des minorités.

En France, un rapport du mathématicien et député Cédric Villani proposait en 2018 la création d’un « corps d’experts publics assermentés ». Et la Cnil a envisagé une « plateforme nationale d’audit des algorithmes ».

La formation d’un commissariat à la négrification de l’IA en France.

Grâce à Cédric.

Je suis rassuré de savoir que je suis bien dans le plus grand asile marxiste à ciel ouvert du monde.

Les principaux remèdes présentés pour éviter la reproduction du statu quo concernent la diversité: intégrer plus de femmes et rééquilibrer la diversité ethnique dans la tech, constituer des équipes pluridisciplinaires au sein des entreprises plutôt que de confier le développement d’une intelligence artificielle uniquement à des ingénieurs.

Chez Capgemini, Anne-Laure Thieullent commence à voir nombre de ses clients passer à « l’action » sur ces thématiques, notamment par peur d’une dégradation de leur image de marque.

Le mieux étant d’anticiper les biais éventuels en amont, avant que les couacs et décisions n’influencent le quotidien des utilisateurs. D’autant, souligne Jérôme Béranger, qu’à l’avenir l’intelligence artificielle est appelée à se passer de l’intervention humaine.

Le « statu quo » dont il est question est le fait pour les Blancs de pouvoir jouir du fruit de leur travail en toute sérénité sans avoir à en redonner 90% à une clique de politiciens communistes qui en a besoin pour acheter les voix des nègres et des arabes.

Ce système a donc décidé de négrifier l’IA afin de tenir plus étroitement encore le goulag diversitaire fronçais.

« Vous n’avez pas dit correctement liberté égalité fraternité Yahvé. Répétez. »

Ce qui me rassure, au pays du Minitel et de la CGT, c’est que cet état socialiste totalement sclérosé, avec ses énarques et ses masses d’antillais syndiqués, est si incompétent qu’avant que leurs algorithmes révolutionnaires à hologrammes négroïdes n’arrivent à quoique ce soit, la Chine aura déjà fait de la France une puissance numérique de quatrième ordre.

Mais je ne peux pas dire que je sois surpris de cette tentative.

La patrie du communisme se devait d’essayer de faire de cette énorme avancée technologique qu’est l’IA une extension de son communisme marron sous clef juive.

Un état doté d’une LICRA robotisée pour sauver les nègres.