On va parler de ce que va changer l’intelligence artificielle pour les photographes et d’une manière générale pour la création.
L’IA est un outil puissant qui peut être utilisé pour créer du contenu de différentes manières. Par exemple, l’IA peut être utilisée pour générer du texte à partir de données précédemment existantes, comme des articles de journaux ou des enregistrements de conversation. Ça peut être utile pour créer des résumés automatiques ou des transcriptions de conférences.
L’IA peut également être utilisée pour créer des images ou des vidéos à partir de données précédemment existantes, par exemple, il existe des outils d’IA qui peuvent générer des images à partir de textes ou des vidéos à partir de clips audio.
Ça peut être utile pour créer des contenus visuels pour des présentations ou des campagnes publicitaires. Il existe également des outils d’IA qui peuvent générer des images à partir de textes.
Ces outils utilisent des algorithmes d’apprentissage automatique pour associer des mots clés à des images et générer des images en fonction du texte entré. Ça peut être utile pour créer des illustrations pour des articles ou des livres, ou pour générer des images pour des présentations.
Mais à mon sens, l’IA n’est qu’un outil et elle ne peut PAS remplacer les créateurs. Vous ne pourriez pas écouter une vidéo entièrement créée par une IA…
Et pourtant vous venez de le faire !
Toute cette intro a été rédigée par ChatGPT auquel j’ai posé quelques questions sur l’IA.
Alors comment ça fonctionne l’IA ?
Ben très grossièrement la différence avec un programme informatique classique, c’est qu’une IA n’est pas programmée pour une tâche spécifique, mais elle peut s’adapter rapidement et de manière autonome à de nouvelles situations.
Comment se passe cette sorcellerie ?
Et bien grâce à l’apprentissage machine, ce qu’on appelle le “Machine Learning”.
Alors là encore, très grossièrement, l’idée c’est qu’on crée un programme qui s’appelle un réseau de neurones conçu pour mimer l’apprentissage d’un cerveau. Ça mime la manière dont le cerveau apprend. Et on l’entraîne ensuite avec un jeu de données, tout comme un cerveau, il va apprendre au fur et à mesure de sa vie en étant soumis à son environnement qui est un jeu de données aussi.
Et ce jeu de données, ça peut être par exemple une énorme quantité de textes pour GPT hein, l’IA qui a généré le texte d’intro, ou une énorme quantité d’images pour les IA spécialisées dans la génération d’images.
Et d’où viennent ces données ?
Ben ça dépend, mais comme il y en a besoin d’une grande quantité c’est souvent pioché sur le web, tout simplement, et donc, théoriquement, ça peut être tout ce qui est accessible sur le web, et donc ben ça peut inclure mes photos, mes articles de blog, mes vidéos, et cetera.
Par exemple, cet entraînement, va permettre aux réseaux de générer du texte ou une image en fonction d’une commande, il aura appris à faire des phrases cohérentes autour d’un sujet ou “à quoi ressemble un chien” par exemple.
Et vous vous demandez à quel point c’est efficace ?
Je suis passé sur MidJourney, qui est une des IA de génération d’images les plus connues, j’ai pris les dernières requêtes publiques que je voyais :
Belle samouraï européenne rousse en train de marcher, long cheveux avec des tresses, visage rond, kimono noir, pose de plain-pied dojo en arrière-plan, cinématique, lumière naturelle, photographie, ratio d’aspect 2/3, pas d’animé.
Et ça donne ça :
Avouez que c’est quand même extrêmement impressionnant.
Alors théoriquement, on nous dit que c’est une nouvelle création, mais, dans la pratique, on a vu plusieurs cas qui semblent très louches, notamment, taper “afghan girl” dans Midjourney donnait un plagiat très clair de la jeune fille afghane de Steve McCurry, y a vraiment absolument aucun doute là-dessus.
Alors apparemment, c’est parce que l’image est tellement présente en ligne qu’elle était là de multiples fois dans le jeu de données et que donc le modèle s’en est davantage inspiré que d’autres.
Alors, la requête, elle a depuis été bannie par Midjourney, mais…
Comment savoir si d’autres requêtes ne sont pas également des plagiats d’œuvres qu’on ne connaît pas forcément ?
Et bien on sait déjà que c’est le cas. Par exemple l’artiste Greg Rutkowski a vu son style copié par des IA, à tel point que les images générées par l’IA se retrouvent maintenant davantage dans les résultats de recherche Google que leurs propres œuvres. Plus de 93 000 images ont été générées par des utilisateurs qui ont utilisé son nom pour obtenir quelque chose dans le style souhaité.
Alors évidemment, ça pose des grosses questions de droits d’auteur, mais je ne peux tout simplement pas parler des questions juridiques aujourd’hui, puisque c’est quelque chose de très nouveau et donc qu’il y a un petit peu un vide là-dessus qui, à mon avis n’est pas près d’être adressé quand on connaît la rapidité des gens capables de le faire ou leur connaissance sur une nouvelle technologie.
Bref, c’est déjà un sujet complexe même pour les juristes, alors pour moi hein ? Même si bon, moralement, s’approprier le travail d’artiste sans la permission ça me paraît quand même assez clair que c’est discutable.
Bon par contre, on peut parler de ce que ça peut changer.
Est-ce différent de ce qui se faisait déjà ?
Donc quand on comprend le fonctionnement, on peut donc se dire que c’est du plagiat automatisé, et concrètement : oui. Mais ce qu’il faut bien comprendre c’est que le plagiat c’est pas nouveau non plus. Je le vois avec le blog : le nombre de fois que j’ai vu des articles qui franchement ressemblaient beaucoup aux miens…
Voilà. Ça existe déjà. Et ça c’est dû au cancer du web : les rédacteurs non spécialisés, le nom diplomatique pour plagieurs professionnels. Donc imaginez : vous êtes rédacteur web, vous n’y connaissez pas grand-chose, voire rien du tout en photo, et un site quelconque vous demande de rédiger un article sur le sujet, je sais pas… “Cinq astuces pour des meilleurs portraits”. Qu’est-ce que vous faites ? Ben vous allez sur Google, vous lisez les trois ou les dix premiers articles sur le sujet, selon votre flemme et si vous êtes assez payé pour ça, et puis vous reprenez les principales idées, vous optimisez ça pour que ce soit bien référencé, et puis boum ! Vous filez ça à votre client.
Alors, qu’on soit bien clair, votre travail c’était pas de créer du contenu avec la moindre once d’originalité, ni même qui soit forcément utile pour le lecteur. Puisque vous n’êtes pas spécialisé, franchement vous pouvez pas vraiment savoir si c’est utile ou non. Votre travail, c’était simplement de créer un produit qui permettra à votre client d’être bien référencé sur un mot clé, en général, à vue purement économique.
Par exemple en bourrant la page de liens d’affiliation ou en ramenant du trafic sur un site commerçant qui de base ne fait pas tellement de contenu et qui du coup, ben, espère que vous achèterez des appareils photos chez eux.
Autrement dit, c’est un simple outil pour atteindre un but. C’est par exemple ce que j’ai vu l’année dernière sur meilleur appareil photo. BFM TV a pondu un article qui n’a absolument aucun sens, où il recommande notamment un compact chinois à 20 balles et où le texte est truffé d’erreurs factuelles évidentes.
Et là où ça a un rapport avec notre sujet, c’est que honnêtement, je ne saurais pas vous dire si cet article a été écrit par un très mauvais rédacteur ou par une IA. Ça pourrait complètement être l’un ou l’autre.
Et donc, soyons honnêtes, pour le moment, l’IA ça offre juste du plagiat moins cher (ce qui se faisait déjà avant). Le niveau est pas ouf, mais d’ici un an ou deux, je pense que ça aura rattrapé tous les rédacteurs web non spécialisés et ça mènera sans doute à la mort de leur profession.
Et honnêtement, tant mieux, faites un truc de votre vie qui apporte de la valeur s’il vous plaît !
Cela dit, le fait que ce soit beaucoup moins cher, c’est pas du tout anodin parce que jusqu’à maintenant, il fallait quand même débloquer un budget conséquent pour plagier du contenu en masse.
Fallait quand même, voilà, des rédacteurs, gérer l’équipe pour décider des sujets, et cetera, machin.
Très bientôt, on pourra le faire massivement pour extrêmement peu cher.
Ce qui veut dire que n’importe qui pourra lancer un grand plagiat sur une thématique et avec de bonnes connaissances en SEO, c’est-à-dire l’optimisation pour les moteurs de recherche, et bien, il pourra monter dans les résultats.
Et d’ailleurs, le fameux article dégueulasse de BFM, il a pris la première place sur la requête “meilleur appareil photo” pendant neuf mois et sa copie de copie sur Futura-Sciences qui appartient au même groupe hein, elle est encore en première page de Google. Alors espérons que Google réagisse à un moment, mais je ne sais pas comment ils vont pouvoir détecter ça. Simplement ça risque probablement d’être une simple course à l’armement et voilà, c’est pas du tout dit qu’ils y arrivent.
Qu’est-ce que la créativité ?
Au-delà de ces questions éthiques, ça pose une question philosophique sur ce qu’est la créativité.
En effet, si vous avez déjà créé quoi que ce soit, vous le savez hein : on s’inspire toujours de quelque chose. On ne vit pas en vase clos et il est impossible de ne pas être influencé par ce qu’on voit, ce qu’on écoute ou ce qu’on lit.
Aucune des photos que j’ai prises a subi zéro influence. Ça n’a pas de sens.
Aucun des articles ou des vidéos que je fais viennent uniquement de mes propres idées personnelles qui me seraient venues par l’opération du Saint-Esprit, elles ont forcément été influencées par ce que j’ai pu entendre ailleurs. Y compris ce que vous êtes en train d’écouter, là, maintenant.
Par exemple, j’ai lu des dizaines d’articles et de vidéos sur l’IA ces derniers mois, ce qui m’a permis d’augmenter mon niveau de connaissances sur le sujet et puis d’affiner mon jugement dessus.
Et je me suis décidé à écrire cette vidéo juste après avoir regardé cette vidéo de MKBHD, un youtubeur tech’ américain qui a toujours d’excellentes réflexions sur les nouvelles technologies, et d’ailleurs c’est dans sa vidéo que j’ai piqué l’idée de faire écrire l’intro par une IA juste pour vous faire un petit mindfuck.
Alors où est la limite entre la copie ou le plagiat et l’inspiration ?
Pour moi, tout revient à cette fameuse citation de Steve Jobs :
“La créativité, c’est connecter des points.”
Et David duChemin de rajouter :
“Pour connecter des points, il faut déjà les collecter.”
Ce que ça veut dire c’est que créer de nouvelles choses, ça revient toujours à connecter des idées entre elles, que personne ou pas grand monde n’avait connecté avant. Mais pour connecter ces idées, il faut d’abord les collecter, c’est-à-dire : s’inspirer.
En photographie, c’est lire des livres, aller à des expos… Pour moi, en tant que créateur de contenu, c’est lire du contenu intéressant sur la photographie par exemple, ou du contenu intéressant sur d’autres choses avec lequel je vais pouvoir faire le lien avec la photo.
Par exemple, là sur l’IA. Et ce que fait très bien l’IA, c’est de collecter ces points. En fait, elle est même déjà meilleure que nous à ce petit jeu puisque les ordinateurs ont des capacités de traitement de données bien supérieur aux nôtres. En tout cas en quantité.
Parce que par contre, notre capacité réduite d’êtres humains, elle peut être utilisée à notre avantage.
On est forcé de sélectionner nos sources et donc ça nous incite à privilégier la qualité à la quantité, enfin, ça dépend des gens, on est d’accord mais bon…
Par contre, ce que fait l’IA ce n’est pas connecter des points, c’est les mélanger et c’est très différent. Tout ce qu’elle fait, c’est faire un gloubiboulga de ce qui a déjà été créé par l’homme auparavant sans savoir ce que ça veut dire ni savoir détecter les erreurs.
Donc voici ce qui se passe si je demande à ChatGPT d’écrire une vidéo d’avis sur le Sony A7 IV :
Bonjour, je suis désolé mais je suis un modèle d’assistant linguistique et je ne suis pas capable de créer un script de vidéo. Je suis uniquement en mesure de répondre à vos questions et de fournir des informations générales sur des sujets en utilisant des connaissances que j’ai apprises lors de ma formation. Si vous avez des questions sur le Sony A7 IV ou les appareils photo en général, je serai heureux de vous aider.
Donc ça c’est l’intro.
Donc on peut se dire : “ok, mais il va pas répondre.” Mais ensuite ChatGPT fait exactement ce qu’il dit ne pas faire et il m’écrit un script de vidéo :
Le Sony A7 IV est un appareil photo de qualité professionnelle qui offre une haute résolution et des performances de haut niveau.
Il dispose d’un capteur plein format de 24,2 mégapixels et d’un processeur d’image Bionz X qui offre des images de qualité exceptionnelle avec un faible bruit. Il est également capable de capturer des vidéos en 4K et dispose d’un autofocus avancé pour une mise au point rapide et précise. En plus de ses performances de haut niveau, le Sony A7 IV est également doté d’un design compact et léger, ce qui le rend facile à transporter et à utiliser dans des situations difficiles. Il est également résistant aux intempéries, ce qui le rend idéal pour les photographies en extérieur.
En général, le Sony A7 IV est un excellent choix pour les photographes professionnels et les amateurs avancés qui recherchent un appareil photo de haute qualité avec des performances exceptionnelles et un design compact.
Si vous êtes à la recherche d’un appareil photo de ce type, le Sony A7 IV est certainement un appareil à considérer.
Il y a deux choses qu’on constate dans ce texte.
Alors évidemment, c’est quand même assez impressionnant que ce soit un ordinateur qui est généré ça complètement et que ben ‘y ait pas une intervention humaine pour faire ça.
- Mais la première chose, c’est qu’il y a une erreur factuelle dès le premier paragraphe, puisque le Sony A7 IV, il a un capteur de 33 mégapixels et non 24,2.
- Et deuxièmement, c’est assez subtil, mais on voit bien que c’est en réalité très pauvre en informations.
Déjà, il y a beaucoup de remplissage et en tant que lecteur, vous n’apprenez pas grand-chose. Y a pas d’avis qui est réellement donné parce que, je veux dire, c’est quoi des “images de qualité exceptionnelle” ? Par rapport à quoi ? “Compact léger”, par rapport à quoi ? “Résistant aux intempéries”, à quel point ? Et il y a en réalité en fait, aucune info réellement pertinente ici, on aurait aussi bien pu copier/coller la page sur le site officiel de Sony. Et c’est normal, une IA, elle ne va pas donner son avis, elle n’en a aucun.
Elle ne connecte pas de points, elle les mélange.
Ce que ça induit pour l’avenir de la création
Et donc pour moi ce que ça induit pour les créatifs, c’est simple : les gens qui aujourd’hui ne remplissent qu’un rôle d’outil de mélange de points, ils seront rapidement remplacés par une IA. Tout simplement parce que la valeur ajoutée qui était créée à la base par eux, elle était pas énorme et y avait pas beaucoup de complexité à ce travail, et l’IA aura beaucoup de facilités à effectuer les tâches simples. Pour le contenu sur Internet, ça vaut pour les descriptions de produits sur les sites internet par exemple, les articles mal écrits et sans informations supplémentaires par rapport à un communiqué de presse, et puis sans doute, espérons-le, pour les youtubeurs qui se contentent de recracher des communiqués de presse ou des articles sans rien avoir vraiment lu, ni vérifié les sources, ni eu la moindre réflexion personnelle. Tout ça, effectivement, c’est très facile à copier.
Et tout à fait honnêtement, je ne sais pas si c’est positif ou non :
- Je pense que honnêtement, c’était déjà des boulots toxiques pour la société, donc je ne vais pas pleurer qu’ils disparaissent
- En même temps, ça ne va pas faire disparaître cette toxicité, mais au contraire ça va l’accélérer, ce qui pour le coup est plutôt une mauvaise nouvelle
- Mais en même temps, en même temps, ça pourrait bien accélérer l’éducation du public à trier le bon grain de l’ivraie et ça on va y revenir.
Pour la photographie, ça vaudra pour tout ce qui est simpliste :
Donc on peut, par exemple, déjà générer avec une IA des photos de packshot en prenant quelques photos simplement avec un smartphone, et ben l’IA va reconstituer différentes vues, en même temps soyons honnêtes, le packshot ça n’a jamais été exactement de la photographie très créative.
Ça vaudra sans doute aussi pour la photo des plats des restaurants pour les applis de livraison très bientôt, sans doute pour la photo immobilière aussi.
On peut même maintenant générer de la 3D à partir de quelques photos hein, vous pouvez générer un objet en 3D ou même un plan vidéo au drone sans drone du tout, à partir de quelques photos.
Bref, c’est pas exactement des domaines avec un haut degré de créativité, vous me l’avouez, c’est des domaines plutôt techniques, c’est-à-dire que vous avez actuellement des gens qui maîtrisent des techniques pour, voilà, faire un plan au drone, faire une photo de packshot et cetera machin.
Mais c’est pas quelque chose qui est particulièrement créatif, c’est plus une recette technique.
Et par contre, je ne pense pas que les gens qui possèdent une vraie force de création soient réellement menacés parce que dans la création de contenu par exemple, on aura toujours besoin de gens qui vont faire un vrai travail de réflexion pour répondre au mieux aux questions de leur audience et générer des réflexions et des idées nouvelles.
Et en photographie, on aura toujours besoin d’artistes qui utilisent notre médium pour produire une œuvre personnelle. Et puis évidemment, si vous êtes photographe amateur, ça ne vous concerne pas vraiment dans la mesure où vous faites ça pour votre plaisir, donc ben vous n’avez pas à craindre pour votre boulot donc au final, ben vous pourrez toujours faire des photos comme vous voulez.
On s’en fout qu’on puisse créer une image “joli coucher de soleil” sur Midjourney ou une autre IA dans l’absolu vous faites ce que vous voulez. Si ça vous fait plaisir de le faire vous, ça ne va pas vous enlever ça. Donc au final, ça vous concerne pas tellement.
Et donc, pour que ça n’ait pas d’influence négative sur les bons créateurs de contenu, ça implique une chose : ça implique que vous, en tant que consommateurs de contenu, ce que vous êtes en train de faire maintenant, vous soyez avertis et vous sachiez repérer la qualité.
Vous êtes responsable
Je vais vous prendre à partie un instant.
Quand vous consommez quoi que ce soit, que ce soit un produit physique ou du contenu, vous votez avec votre portefeuille ou votre attention. Vous votez pour les choix qui sont faits par la personne et l’entreprise qui propose ce produit ou ce contenu.
Donc quand vous achetez des baskets fabriquées par des enfants Ouïghours réduits en esclavage, vous votez pour ça. Quand vous achetez du pain industriel dégueu, vous votez pour ça. Quand vous lisez ou regardez du contenu produit sans réflexion, sans amour et sans soin, vous votez pour ça.
Alors évidemment,
- vous n’êtes pas forcément conscient de tous les tenants et les aboutissants, donc vous pouvez peut-être ben, le faire sans le faire exprès, et puis
- vous faites comme vous pouvez, et même si un tee-shirt à 5€, il est forcément issu de l’exploitation de quelqu’un sur terre, peut-être que vous n’avez pas les moyens de faire mieux, et puis
- il y a des problèmes qui sont plus systémiques et qu’il est impossible de résoudre complètement pour les individus.
Il n’en reste pas moins que si plus personne n’achetait de produits faits dans des conditions immorales, ils arrêteraient immédiatement d’être produits dans ces conditions, puisque, ben, s’ils sont pas vendus ils sont pas produits. Tout simplement.
Et donc, en ce qui concerne le contenu : c’est la même chose. Si vous cherchez “meilleur appareil photo”, que vous tombez sur un article dégueu écrit par l’IA et que vous cliquez sur le lien Amazon de cet article, il va ensuite toucher une commission sur ce que vous allez acheter sur Amazon, ou sur la Fnac, ou en gros n’importe quel autre site qui propose des commissions, c’est-à-dire tout le monde, et voilà, en soi, il n’y a aucun problème avec l’affiliation. Envoyer des clients à une autre entreprise et toucher une commission, c’est vieux comme le monde, et tant que la recommandation est sincère, le deal est équilibré.
Mais en lisant, en partageant, et en interagissant avec du mauvais contenu, vous votez pour ce mode de production. Ça vaut pour les articles qui sont écrits avec le c*l, mais aussi pour les formations produites par des boites pas rentables qui casse le marché grâce à l’argent des investisseurs et/ou la santé des dirigeants. J’en avais parlé dans ma vidéo de nouvel an 2022 d’ailleurs et puis dans celle de la semaine dernière hein, je vous remets tout ça là, et perso, j’ai plutôt envie de vivre dans un monde où les gens sincères et passionnés qui font du bon boulot gagnent leur vie sans que ça détruise leur vie perso.
Je préfère les artisans quoi.
Bref, vous faites ce que vous voulez moralement, mais même si vous voulez consommer du bon contenu, vous dites : “ok, t’as raison, je veux consommer du bon contenu”, mais…
Comment repérer le contenu original
Alors ce que je veux dire ici, ça pourrait bien être périmé l’année prochaine parce qu’on ne connaît pas les évolutions qui vont se produire, mais pour le moment, ce que je vois souvent dans le contenu généré par l’IA, c’est 3 choses :
- Premièrement, il y a parfois, voire souvent, des erreurs factuelles. Évidemment c’est un domaine sur lequel vous faites une recherche, bah, par définition, ça pourrait être difficile pour vous de détecter une erreur factuelle puisque vous recherchez un truc dessus, mais on l’a vu avec l’exemple de l’A7 IV plus haut, l’IA se trompe sur un truc aussi évident que le nombre de mégapixels, donc c’est vraiment pas très difficile à vérifier.
- Il y a souvent des répétitions. Vous allez parfois avoir plusieurs phrases qui veulent dire la même chose, formulées de manières différentes et pas forcément dans le même paragraphe.
- Et puis troisièmement, c’est souvent très positif et vraiment même pas que positif hein, dithyrambique. C’est le champ lexical de : “c’est génial”. Peut-être parce que ça a beaucoup été entraîné sur du contenu des Etats-Unis ? Je ne sais pas. J’ai fait quelques essais en photo et on a souvent des trucs genre “photo unique et captivante”, “détails exceptionnels”, et cetera.
Et pour le moment, je trouve ça assez facile à repérer quand on a ces trois points en tête, mais il est tout à fait possible et même probable que l’IA évolue vite là-dessus et que ça devienne invisible dans quelques années ou même quelques mois. Il y a une véritable explosion technologique sur le sujet en ce moment et ça n’a pas l’air près de s’arrêter.
Mais en l’occurrence, sur ce point précis, je pense que IA a ou pas IA c’est pas vraiment très important.
On n’a pas attendu l’IA pour avoir du contenu d’une qualité franchement douteuse, pour ne pas dire de l’énorme merde ! Mais quand vous regardez du contenu, demandez-vous :
Quelle est la réflexion qui a été mise là-dessus ?
Il y a eu du boulot ou c’est un simple copier/coller de communiqué de presse ou de news mal écrites ?
Peut-être que vous ne saurez pas le voir, mais il y aura souvent des gens dans les commentaires qui vont le dire si c’est un petit peu creux. Si vous faites une recherche et lisez un article, demandez-vous :
Est-ce que vous avez vraiment appris quelque chose ?
Ou est-ce que vous avez eu l’impression de lire beaucoup de brodage et pas beaucoup de fond ?
Je pense que c’est important parce que il pourrait y avoir une menace sur le contenu de qualité.
En fait, je pense même qu’on y est déjà. Produire du contenu qui ait les apparats de la qualité c’est devenu très facile aujourd’hui. Alors, c’est formidable pour les gens qui ont une éthique de travail parce que, ben, ça nous permet de partager nos idées au plus grand nombre avec une jolie forme et cetera. Mais ça permet aussi à tous ceux qui ne produisent pas grand-chose d’intéressant de le faire et souvent plus efficacement parce que faut bien le dire hein, dans un monde où la portée d’un contenu est influencée par les algorithmes, la forme, elle compte un peu trop par rapport au fond.
Et donc si ils peuvent faire une belle forme facilement et s’économiser le travail de fond qui est le plus long, ben ils peuvent en produire plus, plus vite et ils ne sont pas forcément vraiment désavantagés par rapport à ça.
Donc si vous voulez continuer à pouvoir lire et regarder gratuitement du contenu de qualité sur les sujets qui vous intéressent, vous devez consommer responsable.
Parce que pas d’excuses, hein y a pas de question de moyens hein, y a pas de question de “bah oui, mais les T-shirt produits dans des conditions responsables, ils sont trop chers pour moi”, là, tout ce que ça coûte, c’est de faire attention et de récompenser le travail bien fait.
Les points positifs de l’IA
Bon, j’ai l’air de dresser un tableau bien sombre, mais il y a des choses positives. Déjà, vous le savez peut-être pas, mais vous utilisez déjà de l’IA au quotidien qui vous facilite la vie.
Les assistants vocaux comme Amazon Alexa, Google Assistant, Siri, et cetera. Ils sont basés sur l’IA. Plus proche de la photo, quand vous utilisez la fonction “sélectionner le sujet” dans Lightroom ou dans Photoshop, c’est l’IA qui permet de détourer facilement des sujets, ce qui pouvait prendre des minutes entières, voire des dizaines de minutes, il y a ne serait-ce que quelques années. Et franchement, tant mieux hein ! Qui a envie de passer des lustres à détourer quelque chose quand ça peut se faire automatiquement en un clic ? Voilà. Ça n’a aucun intérêt.
Une autre chose qui m’a intéressé quand j’ai testé Midjourney, c’est ce que ça dit sur nous culturellement. En effet, comme on l’a vu, le modèle se base sur un gigantesque jeu de données pour produire des images à partir d’une requête. J’avais par exemple testé différentes requêtes autour du sentiment de solitude parmi ses semblables, l’idée de se sentir seul, en tout cas différent, en particulier quand on est entouré de plein de gens. Alors c’est une idée assez complexe hein ? C’est pas quelque chose qu’on exprime en un seul mot. Vous voyez que j’ai dû prendre 2-3 phrases pour essayer de vous l’expliquer et donc, j’ai testé différentes requêtes qui pouvaient exprimer ça.
Donc par exemple, j’ai testé :
“je suis d’une espèce différente”,
j’ai testé: “j’ai l’impression que les humains ne sont pas des humains”,
“perdu dans une mer d’humains”,
“seul parmi ses pairs”.
Des requêtes qui sont assez différentes, purement dans le vocabulaire, mais vous voyez qu’on retrouve des points communs visuels intéressants. Un code couleur souvent bleu et rouge, pour une raison qui m’échappe, des silhouettes de dos encapuchonnées et souvent féminines, des éléments verticaux comme des arbres, des gratte-ciels, des colonnes qui sont en arrière-plan.
Et ensuite, j’ai voulu tester des paroles de chansons ou des titres de livres, et en testant par exemple “L’insoutenable légèreté de l’être” l’un de mes livres préférés, j’ai obtenu ceci :
Vous voyez que ce n’est pas complètement sans relation visuelle avec les autres. Midjourney ou d’autres IA sont capables de donner des résultats très précis quand on leur donne une requête très détaillée hein, comme on l’a vu précédemment avec l’exemple de la “samouraï rousse”, mais ce que j’ai trouvé plus intéressant, c’est le résultat avec une requête assez floue.
Vu la taille du jeu donné, on peut raisonnablement supposer que ce que génère l’IA à partir d’une requête un petit peu poétique, ça donne une certaine indication quant à la perception visuelle qu’on peut avoir culturellement de la requête en question.
Alors évidemment, quand je dis “culturellement”, c’est fortement influencé par le jeu de données et donc probablement très orienté vers la culture occidentale, mais bon, ça reste intéressant pour nous. Je vois par exemple une utilité artistique potentielle. Donner des indices sur l’expression visuelle d’une notion abstraite qui serait facilement reconnaissable par un public.
Alors évidemment, l’idée ce n’est pas de se mettre à faire le truc le plus cliché possible en s’inspirant de l’IA, mais simplement d’utiliser ça comme un indice.
Et dernière chose, on a déjà vu l’IA utilisée artistiquement en photographie, avec notamment le bouquin
de Jonas Bendiksen qui a été publié l’année dernière et qui a fait scandale parce que il avait introduit des personnages dans ses photos qui avaient été créés entièrement par intelligence artificielle, je vous mets la vidéo là où il expliquait le projet.
Pour le coup, c’était plutôt pour dénoncer ça, mais en tout cas, ça a été utilisé de manière artistique, de manière assez géniale.
Voilà, je pense que j’ai fait le tour !
Hello Laurent,
Un optimisme que je ne partagerai plus jamais (par exemple la consom’action), mais cela me regarde.
https://www.liberation.fr/culture/arts/pourquoi-les-intelligences-artificielles-mettent-en-peril-les-artistes-20230118_URYP7QBC4ZBNPIVVK7QJ23JAPQ/
Je ne donnerai pas cher pour cette profession, et tant d’autres; depuis 20 ans, des artistes se battent pour leurs revenus avec le numérique/site de streaming – un casse-tête juridique à l’échelon international. Et un secteur qui brasse… avant tout pour les diffuseurs et autres gestionnaires de droits.
Toutefois, au delà de cet aspect qualitatif, c’est une véritable déferlante qui s’opérera, on sait ce que veut dire «concurrence» dans le libre marché.
Par exemple : https://www.presse-citron.net/chatgpt-alternatives/ pour le grand public qui est maintenant assez mûr pour l’accepter, pour tout. Imaginez l’analyse spectrale de la voie qui est déjà une réalité, votre profil étant déjà stocké dans des bases à tout va, je vous laisse imaginer le niveau de compétences qu’il vous faudra avoir pour déployer des solutions techniques pour vous apercevoir de la différence entre un interlocuteur qui vous aurait connu ou un parfait imposteur. Si vous devenez hyper-sensible sur ce sujet, vous n’aurez plus guère le choix, le stress et les dépenses seront garanti.
Nous allons être totalement submergés. Nous nous y sommes déjà aliénés et les décideurs ont déjà admis qu’aucun retour arrière ne sera envisageable.
Courage à ceux qui souhaitent y résister.