mercredi, avril 19, 2023

MOROZOV: “LE GARANT SUR CHATGPT A BIEN FAIT. L’IA DE LA SILICON VALLEY DOIT ÊTRE COMBATTUE SUR LE PLAN POLITIQUE ET PHILOSOPHIQUE

 [ Cliquez sur l'image pour l'agrandir ] 

PHOTO MARCO BERTORELLO / AFP

Evgeny Morozov est considéré comme l’un des principaux experts de l’Internet et du numérique. Né en 1984, biélorusse, sociologue, ses propos sont hébergés dans le Guardian, l’Economist, le New York Times. Morozov a théorisé il y a dix ans ce qu’il appelait le solutionnisme technologique. Décrit et critiqué comme un trait caractéristique de notre époque, il consiste en une foi de fer dans le pouvoir salvateur de la technologie, capable avec ses innovations de résoudre par elle-même les problèmes sociaux et politiques. Thèse qui l’oppose idéalement à la Silicon Valley et à la culture d’entreprise, d’État et de société qu’elle propose. Morozov a consacré certaines de ses dernières réflexions au sujet de l’Intelligence Artificielle. Un concept issu de la « guerre froide », qui fera donc plus de bien aux entreprises de la Bay Area qu’à la société. Et pas pour les emplois menacés. Morozov propose une critique plus approfondie de l’intelligence artificielle. “Il faudrait s’y opposer davantage pour ses aspects politiques et philosophiques”. Et la politique, les médias, ont un rôle fondamental dans ce processus. [
«Le problème avec l'intelligence artificielle ? Ce n'est ni artificiel ni intelligent»]

par Evgeny Morozov

La semaine dernière, le garant italien de la confidentialité a forcé OpenAi à cesser de collecter les données personnelles des utilisateurs italiens. Qu’avez-vous pensé de cette décision ?

Evgeny Morozov

C’est leur travail de faire respecter les règles. OpenAI, comme la plupart des startups technologiques, contourne les règles pour mettre rapidement leur produit sur le marché, pour économiser les frais juridiques, et fait valoir que leurs pratiques se heurtent à des normes sociales obsolètes qui doivent être modifiées. ainsi pendant des décennies.

ChatGpt est-il une menace pour la vie privée ?

A en juger par les derniers mois, lorsque l’utilisation par OpenAI d’une bibliothèque de logiciels open source a conduit à l’exposition en ligne de certaines données d’utilisateurs, je pense que la réponse est évidente. On se demande : combien d’autres. Quels raccourcis doivent-ils prendre pour lancer leur Je pense qu’il existe un moyen de tout faire plus lentement. Avec plus de tests. Sans avoir à compter sur des bibliothèques open source bon marché.

Dans un éditorial du Guardian, il a critiqué le concept même d’intelligence artificielle. Selon elle, ce n’est ni intelligent ni artificiel. Que veut-il dire exactement ?

PHOTO PIXSELL / ALAMY

“Je soulignais que l’idée même d'”intelligence artificielle” a un biais de guerre froide. Elle est apparue dans les années 1950, au plus fort de la guerre froide. Ses premières utilisations étaient dans l’armée et une grande partie de son travail est ” Il a été financé par l’armée. L’argument que j’ai avancé est que, en tant que concept, il appartient au musée. Comme d’autres termes de la guerre froide, comme “moment Spoutnik” ou “théorie des dominos” 

Et quel rapport cela a-t-il avec le présent ?

Il y a eu une tentative erronée de construire quelque chose appelé” intelligence artificielle “dans les années 1950 – et c’est toujours une tentative erronée de construire quelque chose appelé” intelligence générale artificielle “en 2023. Au mieux, nous parlons d’outils qui pourront répliquer – ne correspondent pas ou ne remplacent pas – certaines des fonctions exécutées par les êtres humains. Et c’est une bonne chose. Il était une fois des “ordinateurs” qui étaient de vraies personnes et au fil du temps, nous avons fini par appeler les machines des “ordinateurs”. va pour “calculatrices”. Les techniques que nous appelons actuellement “IA” appartiennent à cette veine : elles font bien certaines choses limitées. Nous devrions leur faire faire mieux, et d’une meilleure manière. supervisées et étroitement réglementées. Dans la Silicon Valley, ils soutiennent qu’il nous faut ce couteau suisse (l’intelligence artificielle) capable de tout faire, même si la plupart des choses lui feront du mal”.

A qui profitera tout cela ?

« Je sais que c’est bon pour les modèles commerciaux de la Silicon Valley. Je ne sais pas pourquoi cela devrait être bon pour le monde ; Je préfère continuer à placer ma foi et ma confiance dans des institutions spécifiques (et des technologies limitées plutôt que génériques) qui font quelques choses mais les font bien.

Quel rôle jouent les médias dans ce débat ?

«Je pourrais continuer encore et encore sur ce que les médias pourraient faire. Les médias – et plus généralement ce qu’on appelle la « sphère publique » – doivent nous aider dans ce qu’Emmanuel Kant a appelé « l’usage public de la raison ». Ils nous aident à comprendre pourquoi et comment fonctionnent certaines lois et institutions. Toute la poussée vers AGI nous dit que ces problèmes n’ont pas d’importance. Que nous devrions nous concentrer uniquement sur la réalisation des choses et l’efficacité, en célébrant les « boîtes noires » au lieu de «l’utilisation publique de la raison ». Je crois que c’est un geste suicidaire pour la société dans son ensemble ; une attention excessive à l’efficacité – sans enquêter sur les coûts pour la générer – peut produire d’énormes problèmes – dont le changement climatique est l’une des manifestations les plus récentes ».

Doit-on lutter contre l’AGI ?

« Il faut s’opposer à l’AGI non seulement pour des questions de vie privée, mais aussi pour des raisons plus politiques et philosophiques : l’augmentation de l’épistémologie de la boîte noire, qui la sous-tend, éloignera de plus en plus la société de comprendre comment le pouvoir, la justice sociale, qui sont les gentils et les méchants. AGI se concentre uniquement sur la performance et la réalisation des objectifs grâce à des corrélations statistiques. Il n’a pas besoin de théories sur le monde. Mais sans théories, il n’y a pas de politique »

Ceci est lié au thème du travail. Pensez-vous que l’intelligence artificielle est une menace ?

« L’impact sur le travail m’inquiète moins que d’autres problèmes. Si des critiques comme David Graeber avaient raison, et si la plupart du travail effectué aujourd’hui consistait en “travail bon marché”, la prise en charge de l’IA ne serait pas une si mauvaise chose. Mais l’argument de Graeber (et, d’une manière différente, celui de Marx) est que ces emplois dépourvus de sens sont structurellement nécessaires au maintien du système économique et politique actuel. Donc je ne pense pas qu’ils vont disparaître de si tôt.

Qu’est-ce qui t’inquiète le plus alors ?

«Je suis beaucoup plus préoccupé par la volonté de construire AGI, même si je pense qu’ils ne seront pas en mesure de le construire. C’est comment il y arrive qui m’inquiète; l’idéologie solutionniste que je dénonce depuis une décennie va encore s’enraciner. Pourquoi devrions-nous faire confiance à la Silicon Valley pour résoudre les problèmes politiques et sociaux, même si elle peut construire une intelligence artificielle ? Est-ce une décision consciente que nous avons prise en tant que société ? Je n’y crois pas.

Voyez-vous des opportunités ?

Poser cette question sur l’IA, c’est comme la poser sur la calculatrice. Bien sûr, c’est génial si vous avez des tâches très spécifiques à votre disposition. Mais je n’utiliserais pas la calculatrice pour composer une symphonie. De même, avec le LLM (Large Language Model, ou grands modèles linguistiques, ndlr), vous pouvez améliorer considérablement le style des phrases que vous écrivez.

Il semble que bientôt il sera capable de produire des textes, des scripts, très similaires à ceux réalisés par des professionnels.

J’en doute fortement. Cela produira beaucoup de déchets prévisibles, qui ne feront que répéter ce qui a été fait auparavant, mais avec une nouvelle tournure. Hollywood est déjà très bon pour le produire même sans LLM. Mais certains romanciers et scénaristes talentueux le feront. utiliser LLM pour créer des phrases plus belles et engageantes ? Je n’en doute pas. Mais ils seront stupides de les utiliser pour générer des intrigues – le cœur de la fiction créative.

Cette révolution est actuellement menée par des entreprises privées, les institutions tentant parfois d’y mettre un terme. Est-ce un danger ?

« Oui, et ma préoccupation concerne davantage la privatisation de la politique que la privatisation de l’État-providence ou de l’administration publique. Je pense que les démocraties robustes ont besoin d’une sphère publique forte dans laquelle différentes conceptions du bien commun et du bien-vivre peuvent être articulées et remises en question. Nous avons également besoin d’avoir plusieurs rapports expliquant pourquoi certains problèmes. Prenons un problème comme la pauvreté. Existe-t-il parce que les pauvres sont financièrement irresponsables et ont besoin d’une application pour les éduquer ? Ou existe-t-il parce que les milliardaires exploitent les failles de la législation fiscale ? Avec Silicon Valley AGI, notre impulsion naturelle est d’assumer la première, car c’est un problème plus facilement résolu avec la technologie. Il n’y a donc même pas de débat; nous nous limitons à cueillir les fruits les plus bas. Cependant, la plupart de nos problèmes sont de ce dernier type : ils sont structurels et ont des forces puissantes derrière eux, et nous avons besoin d’une explication causale de leur existence. Mais les géants de la Silicon Valley ne sont pas intéressés par de telles explications ; ils veulent commercialiser leurs solutions et s’enrichir au passage. Ce qui est appauvri dans ce processus, c’est notre démocratie ».

Alors, quel rôle les institutions devraient-elles avoir? Comment doivent-ils relever ces défis ?

« Premièrement, ils doivent limiter l’empiètement des géants de la technologie sur notre vie publique. Lorsque cela est inévitable, ils doivent les soumettre à une réglementation et à des contrôles stricts, tant en termes d’entrées (données et modèles) que de sorties (prévisions). J’aimerais qu’ils commencent également à créer leurs propres LLM ou au moins à investir dans la conservation d’ensembles de données de haute qualité pouvant être intégrés à des modèles construits par d’autres ; ces ensembles de données sont évidemment des biens publics qui doivent être produits dans la façon dont nous construisons les collections des bibliothèques. Sinon, nous nous retrouvons avec des données de mauvaise qualité rejetées par des sources en ligne comme Reddit. Mais les gouvernements doivent aussi renforcer la sphère publique, élément vital de notre démocratie. Cela signifie financer et accorder l’autonomie et l’indépendance aux médias publics. S’ils ne le font pas, nous finirons par glisser davantage dans le bourbier du solutionnisme, où nous acceptons la solution la plus simple simplement parce qu’elle est propre et inefficace – même si pour la plupart des gens, cela semblerait injuste.»


#Morozov #garant #sur #ChatGpt #bien #fait #LIA #Silicon #Valley #doit #être #combattue #sur #plan #politique #philosophique


SUR LE MÊME SUJET :