Re: Les IA : qui sont-elles ? Quels sont leurs réseaux ?
Publié : lun. févr. 06, 2023 9:23 am
La version broute
Forum avec de vrais morceaux de JDR dedans.
https://www.casus-no.net/
The People Onscreen Are Fake. The Disinformation Is Real. - The New York Times (nytimes.com)Dans une vidéo, un présentateur de journal télévisé aux cheveux bruns parfaitement coiffés et à la barbe hirsute décrit ce qu'il considère comme le manque honteux d'action des États-Unis contre la violence armée.
Dans une autre vidéo, une présentatrice de journal télévisé vantait le rôle de la Chine dans les relations géopolitiques lors d'un sommet international.
Mais quelque chose clochait. Leurs voix guindées n'étaient pas synchronisées avec les mouvements de leurs bouches. Leurs visages étaient pixellisés, dignes de jeux vidéo, et leurs cheveux semblaient anormalement collés à leur tête. Les sous-titres étaient remplis de fautes de grammaire.
Les deux journalistes, censés être les présentateurs d'un journal télévisé appelé Wolf News, ne sont pas de vraies personnes. Ce sont des avatars générés par ordinateur et créés par un logiciel d'intelligence artificielle. À la fin de l'année dernière, des vidéos d'eux ont été diffusées par des comptes de bots pro-chinois sur Facebook et Twitter. Il s'agit du premier cas connu d'utilisation de la technologie vidéo "deepfake" pour créer des personnes fictives dans le cadre d'une campagne d'information alignée sur un État.
Bon, donc, d'un côté, non seulement il faut travailler de plus en plus dur mais, en plus, il faut travailler de plus en plus longtemps pour sa retraite. Sinon, la société s'écroule.... D'un autre côté, les I.A vont bientôt mettre tout le monde au chômage.nonolimitus a écrit : ↑mer. févr. 08, 2023 3:48 pmBon, je vais dire à mon fils ainé qu'il peut lâcher ses études d'informatiques pour aller élever des chèvres dans le Larzac...
nonolimitus a écrit : ↑mer. févr. 08, 2023 3:48 pm
Bon, je vais dire à mon fils ainé qu'il peut lâcher ses études d'informatiques pour aller élever des chèvres dans le Larzac...
nonolimitus a écrit : ↑mer. févr. 08, 2023 3:48 pm
Bon, je vais dire à mon fils ainé qu'il peut lâcher ses études d'informatiques pour aller élever des chèvres dans le Larzac...
Cela fait des années que l'on entend le même discours et pourtant nous sommes dans une période de plein emploi et ce malgré les robots, automates et IA divers et variés qui sont implantés depuis des décennies en France. D'ailleurs ces mêmes implantations sont grandement ralentis par l'énorme déficit de compétences que nous avons sur ces secteurs... ce qui ouvre quand même pas mal de pistes au cas où nous nous trouverions dans la situation où nous aurions de plus en plus de gens inutiles...Lord Foxhole a écrit : ↑jeu. févr. 09, 2023 12:33 am D'un autre côté, les I.A vont bientôt mettre tout le monde au chômage.
D'où une question simple : qu'est-ce qu'on va faire de tous ces êtres humains qui, dans les prochaines années, vont devenir de plus en plus inutiles et mettent notre survie en danger !?
nonolimitus a écrit : ↑jeu. févr. 09, 2023 11:56 am
Déjà, il est majeur, alors je vais rien lui interdire du toutMais, s'il n'y a plus besoin d'ingénieur informatique pour coder - vu que le "code" et les divers langages pour le faire, c'est sa grande passion - çà risque d'être compliqué pour lui après ses études... Surtout qu'il déteste le fromage de chèvre !
Lord Foxhole a écrit : ↑jeu. févr. 09, 2023 12:33 am D'où une question simple : qu'est-ce qu'on va faire de tous ces êtres humains qui, dans les prochaines années, vont devenir de plus en plus inutiles et mettent notre survie en danger !?
I think that this incident with the Xerox photocopier is worth bearing in mind today, as we consider OpenAI’s ChatGPT and other similar programs, which A.I. researchers call large language models. The resemblance between a photocopier and a large language model might not be immediately apparent—but consider the following scenario. Imagine that you’re about to lose your access to the Internet forever. In preparation, you plan to create a compressed copy of all the text on the Web, so that you can store it on a private server. Unfortunately, your private server has only one per cent of the space needed; you can’t use a lossless compression algorithm if you want everything to fit. Instead, you write a lossy algorithm that identifies statistical regularities in the text and stores them in a specialized file format. Because you have virtually unlimited computational power to throw at this task, your algorithm can identify extraordinarily nuanced statistical regularities, and this allows you to achieve the desired compression ratio of a hundred to one.
Now, losing your Internet access isn’t quite so terrible; you’ve got all the information on the Web stored on your server. The only catch is that, because the text has been so highly compressed, you can’t look for information by searching for an exact quote; you’ll never get an exact match, because the words aren’t what’s being stored. To solve this problem, you create an interface that accepts queries in the form of questions and responds with answers that convey the gist of what you have on your server.
What I’ve described sounds a lot like ChatGPT, or most any other large language model. Think of ChatGPT as a blurry JPEG of all the text on the Web. It retains much of the information on the Web, in the same way that a JPEG retains much of the information of a higher-resolution image, but, if you’re looking for an exact sequence of bits, you won’t find it; all you will ever get is an approximation. But, because the approximation is presented in the form of grammatical text, which ChatGPT excels at creating, it’s usually acceptable. You’re still looking at a blurry JPEG, but the blurriness occurs in a way that doesn’t make the picture as a whole look less sharp.
This analogy to lossy compression is not just a way to understand ChatGPT’s facility at repackaging information found on the Web by using different words. It’s also a way to understand the “hallucinations,” or nonsensical answers to factual questions, to which large language models such as ChatGPT are all too prone. These hallucinations are compression artifacts, but—like the incorrect labels generated by the Xerox photocopier—they are plausible enough that identifying them requires comparing them against the originals, which in this case means either the Web or our own knowledge of the world. When we think about them this way, such hallucinations are anything but surprising; if a compression algorithm is designed to reconstruct text after ninety-nine per cent of the original has been discarded, we should expect that significant portions of what it generates will be entirely fabricated.
Large language models identify statistical regularities in text. Any analysis of the text of the Web will reveal that phrases like “supply is low” often appear in close proximity to phrases like “prices rise.” A chatbot that incorporates this correlation might, when asked a question about the effect of supply shortages, respond with an answer about prices increasing. If a large language model has compiled a vast number of correlations between economic terms—so many that it can offer plausible responses to a wide variety of questions—should we say that it actually understands economic theory?