Accueil > Pour en savoir plus > Intelligence artificielle > "L’incorporation des intelligences artificielles (IA), faible et forte, et (...)

"L’incorporation des intelligences artificielles (IA), faible et forte, et donc des réseaux de neurones artificiels, dans les arts numériques, les médias et les réseaux sociaux ; la politique française pour implémenter l’IA dans des secteurs jugés prioritaires" par Jacques Hallard & Bastien Maleplate

dimanche 22 septembre 2019, par Hallard Jacques, Maleplate Bastien



ISIAS IA

L’incorporation des intelligences artificielles (IA), faible et forte, et donc des réseaux de neurones artificiels, dans les arts numériques, les médias et les réseaux sociaux ; la politique française pour implémenter l’IA dans des secteurs jugés prioritaires

Jacques Hallard , Ingénieur CNAM, site ISIAS, avec la collaboration scientifique et technique de Bastien - 22/09/2019

Série : L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle (IA)

Bulles imbriquées pour positionner les notions d’IA, de machine learning et de deep learning. La plus large est l’IA, l’intermédiare est le machine learning et la plus petite est le deep learning

Schéma montrant le positionnement des notions d’IA, ‘machine learning’, réseaux de neurones artificiels et ‘deep learning’, imbriquées les unes dans les autres. Source (Bouliech Travail personnel 4 octobre 2018 - Positionnement des notions d’IA de ‘machine learning’ et de ‘deep learning’ avec quelques exemples de ‘machine learning’ qui ne sont pas du ‘deep learning’).

Implémenter : effectuer l’ensemble des opérations qui permettent de définir un projet et de le réaliser, de l’analyse du besoin à l’installation et la mise en service du système ou du produit. Traduire un algorithme dans un langage de programmation. Fournir une fonctionnalité, en parlant d’un logiciel, d’une bibliothèque logicielle, d’un système d’exploitation, etc… Cest un Anglicisme utilisé en économie et en informatique.

Plan : Définitions préliminaires Introduction Sommaire Publications antérieures {{}}Auteurs

Suggestion aux lecteurs et lectrices : si vous préférez remettre à plus tard la découverte de certains des aspects très techniques de l’IA, vous pouvez passer directement à l’Introduction de ce dossier.


Définitions préliminaires


Contenu

A. ‘Machine learning’ouapprentissage automatique

B. ‘Deep learning’ouapprentissage profond

C. Les réseaux de neurones artificiels selon Wikipédia

D. Machine à vecteurs de support ou ‘support vector machine’(SVM)

E. Un peu de Machine Learning avec les SVM - Découvrez les SVM, ces outils classiques de Machine Learning ! 26 avril 2017 - Document ‘zestedesavoir.com/tutoriels’ - Auteur : melepe

F. Cours CNAM approfondi / SVM linéaires

G. L’algorithme de forêt aléatoire : un guide complet - Actualités High Tech - juin 17, 2019

Retour au début du contenu des définitions préliminaires

A. ‘Machine learning’ ou apprentissage automatique

L’apprentissage automatique (en anglais machine learning, littéralement « apprentissage machine ») ou apprentissage statistique est un champ d’étude de l’intelligence artificielle qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d’ « apprendre » à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l’analyse, le développement et l’implémentation de telles méthodes.

L’apprentissage automatique comporte généralement deux phases. La première consiste à estimer un modèle à partir de données, appelées observations, qui sont disponibles et en nombre fini, lors de la phase de conception du système. L’estimation du modèle consiste à résoudre une tâche pratique, telle que traduire un discours, estimer une densité de probabilité, reconnaître la présence d’un chat dans une photographie ou participer à la conduite d’un véhicule autonome. Cette phase dite « d’apprentissage » ou « d’entraînement » est généralement réalisée préalablement à l’utilisation pratique du modèle. La seconde phase correspond à la mise en production : le modèle étant déterminé, de nouvelles données peuvent alors être soumises afin d’obtenir le résultat correspondant à la tâche souhaitée. En pratique, certains systèmes peuvent poursuivre leur apprentissage une fois en production, pour peu qu’ils aient un moyen d’obtenir un retour sur la qualité des résultats produits.

Selon les informations disponibles durant la phase d’apprentissage, l’apprentissage est qualifié de différentes manières. Si les données sont étiquetées (c’est-à-dire que la réponse à la tâche est connue pour ces données), il s’agit d’un apprentissage supervisé. On parle de classification ou de classement1 si les étiquettes sont discrètes, ou de régression si elles sont continues. Si le modèle est appris de manière incrémentale en fonction d’une récompense reçue par le programme pour chacune des actions entreprises, on parle d’apprentissage par renforcement. Dans le cas le plus général, sans étiquette, on cherche à déterminer la structure sous-jacente des données (qui peuvent être une densité de probabilité) et il s’agit alors d’apprentissage non supervisé. L’apprentissage automatique peut être appliqué à différents types de données, tels des graphes, des arbres, des courbes, ou plus simplement des vecteurs de caractéristiques, qui peuvent être continues ou discrètes.

Article complet sur ce site : https://fr.wikipedia.org/wiki/Apprentissage_automatique

Retour au contenu des définitions préliminaires

B. ‘Deep learning’ ou apprentissage profond

L’apprentissage profond1 (plus précisément « apprentissage approfondi », et en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d’apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires[réf. souhaitée]. Ces techniques ont permis des progrès importants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft)2.

Source : https://fr.wikipedia.org/wiki/Apprentissage_profond

Retour au contenu des définitions préliminaires

C. Les réseaux de neurones artificiels selon Wikipédia

Un réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l’origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s’est rapproché des méthodes statistiques1.

Vue simplifiée d’un réseau artificiel de neurones

Les réseaux de neurones sont généralement optimisés par des méthodes d’apprentissage de type probabiliste, en particulier bayésien. Ils sont placés d’une part dans la famille des applications statistiques, qu’ils enrichissent avec un ensemble de paradigmes 2 permettant de créer des classifications rapides (réseaux de Kohonen en particulier), et d’autre part dans la famille des méthodes de l’intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de l’implémenteur, et fournissant des informations d’entrée au raisonnement logique formel (voir Deep Learning).

Réseau de neurones avec rétroaction

En modélisation des circuits biologiques, ils permettent de tester quelques hypothèses fonctionnelles issues de la neurophysiologie, ou encore les conséquences de ces hypothèses pour les comparer au réel.

Structure d’un neurone artificiel. Le neurone calcule la somme de ses entrées puis cette valeur passe à travers la fonction d’activation pour produire sa sortie.

Source : https://fr.wikipedia.org/wiki/R%C3%A9seau_de_neurones_artificiels

Retour au contenu des définitions préliminaires

D.
Machine à vecteurs de support ou ‘support vector machine’(SVM)

Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais support vector machine, SVM) sont un ensemble de techniques d’apprentissage supervisé destinées à résoudre des problèmes de discriminationnote 1 et de régression. Les SVM sont une généralisation des classifieurs linéaires.

Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d’une théorie statistique de l’apprentissage : la théorie de Vapnik-Tchervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d’hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.

Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d’information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d’un réseau de neurones ou d’un modèle de mélanges gaussiens[réf. souhaitée].

Sommaire

Retour au contenu des définitions préliminaires

E.
Un peu de Machine Learning avec les SVM - Découvrez les SVM, ces outils classiques de Machine Learning ! - 26 avril 2017 – Document ‘zestedesavoir.com/tutoriels’ - Auteur : melepe - Programmation et algorithmique et Autres (informatique) - algorithmique intelligence artificielle

Connaissez-vous l’apprentissage automatique, ou machine learning en anglais  ? Concrètement, il s’agit d’une branche de l’informatique, qui englobe les algorithmes qui apprennent par eux-mêmes. Apprendre par soi-même, qu’est-ce que cela veut dire  ? Tout simplement qu’au début, un algorithme de d’apprentissage automatique ne sait rien faire  ; puis, au fur et à mesure qu’il s’entraîne sur des données, il est capable de répondre de plus en plus efficacement à la tâche qu’on lui demande de faire. Un peu comme vous et moi, en quelque sorte.

On peut ainsi classer les algorithmes en deux catégories  :

  • les algorithmes « classiques », où l’algorithme se contente d’appliquer une série de règles sans apprendre des cas précédents  ;
  • les algorithmes d’apprentissage automatique, où l’algorithme est capable d’effectuer un apprentissage à partir des données déjà vues.
    Aujourd’hui, nous allons parler de machine learning, et plus particulièrement de la famille des SVM. Mais avant toute chose, un SVM, c’est quoi  ? Derrière ce nom barbare (qui est l’acronyme de Support Vector Machines, soit machines à vecteurs support en français, parfois traduit par séparateur à vaste marge pour garder l’acronyme) se cache un algorithme d’apprentissage automatique, et qui est très efficace dans les problèmes de classification. Cela ne vous dit rien  ? Ça tombe bien, on va justement voir ce que c’est.

Dans un premier temps, nous allons découvrir les grands principes qui sous-tendent les SVM. Ensuite, nous allons nous plonger dans les mathématiques qui font toute la beauté de la chose  ! Pour cette partie (qui peut être sautée si les maths ne sont pas votre tasse de thé), vous aurez besoin d’être familier avec les bases de l’algèbre linéaire (espace vectoriel de dimension $n$, produit scalaire, norme euclidienne). Enfin, nous reviendrons à du concret, avec les généralisations du SVM, et un exemple pratique pour faire joujou  ! Prêt  ? C’est parti  !

Source : https://zestedesavoir.com/tutoriels/1760/un-peu-de-machine-learning-avec-les-svm/#1-probleme-de-classification-svm-vous-pouvez-repeter-la-question

Retour au contenu des définitions préliminaires

F.
Cours CNAM approfondi / SVM linéaires

Les informations pratiques concernant le déroulement de l’unité d’enseignement RCP209 « Apprentissage, réseaux de neurones et modèles graphiques » au Cnam se trouvent dans ce préambule. « Statistics is the grammar of science. » - (Karl Pearson) - [Diapositives du cours] – Source : http://cedric.cnam.fr/vertigo/Cours/ml2/coursSVMLineaires.html

Retour au début du contenu des définitions préliminaires

G.
L’algorithme de forêt aléatoire : un guide complet - Actualités High Tech - juin 17, 2019 La rédaction – Document ‘Miroir Mag’

Forêt aléatoire ou ‘Random Forest’ est une solution flexible et facile à utiliser qui produit, même sans réglage hyper-paramètre, un résultat optimal la plupart du temps. C’est également l’un des algorithmes les plus utilisés, en raison de sa simplicité et de sa diversité (il peut être utilisé à la fois pour les tâches de classification et de régression). Dans cet article, nous verrons comment fonctionne l’algorithme de forêt aléatoire, comment il se distingue des autres algorithmes et comment l’utiliser.

Table des matières – Sommaire

Retour au début du contenu des définitions préliminaires

Retour au début du dossier


Introduction

Ce dossier est le 5ème d’un série intitulée « L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle (IA) » : les mises en lignes antérieures de cette série sont accessibles à partir du site indiqué in fine sous la rubrique Publications antérieures. Ce document, constitué à des fins didactiques, commence par quelques définitions techniques très pointues du jargon de l’intelligence artificielle (IA) que l’on peut lire ci-dessus dans la rubrique Définitions préliminaires. {{}}

En plus, on peut aussi commencer par approfondir les généralités et l’essor de l’Intelligence Artificielle (IA) en France à partir des deux sources suivantes :

  • Donner un sens à l’intelligence artificielle - Pour une stratégie nationale et européenne, 08 mars 2018, par Cédric Villani, mathématicien et député de l’Essonne, dans le cadre d’une mission composée de Marc Schoenauer, Directeur de recherche INRIA ; Yann Bonnet, Secrétaire général du Conseil national du numérique ; Charly Berthet Responsable juridique et institutionnel du Conseil national du numérique ; Anne-Charlotte Cornut, Rapporteur au Conseil national du numérique ; François Levin, Responsable des affaires économiques et sociales du Conseil national du numérique et Bertrand Rondepierre, Ingénieur de l’armement, Direction générale de l’armement. La mission confiée par le Premier Ministre Édouard Philippe, Mission parlementaire du 8 septembre 2017 au 8 mars 2018. Avec l’appui de Anne-Lise Meurier, Zineb Ghafoor, Candice Foehrenbach, Stella Biabiany-Rosier, Camille Hartmann, Judith Herzog, Marylou Le Roy, Jan Krewer, Lofred Madzou et Ruben Narzul.
    Cédric Villani  : « Comme bien d’autres adolescents férus de sciences dans les années 80, j’ai fait la connaissance de l’intelligence artificielle dans les superbes ouvrages de vulgarisation de Douglas Hofstadter, qui mettait en scène Alan Turing avec une passion contagieuse. Mais comme bien des mathématiciens débutant la carrière dans les années 1990, j’ai profondément sous-estimé l’impact de l’intelligence artificielle, qui ne donnait finalement, à cette époque, que peu de résultats. Quelle surprise ce fut d’assister, dans les années 2010, à l’incroyable amélioration de ses performances... Devenu moi-même vulgarisateur, je me suis mis à développer le sujet régulièrement, dans mes conférences publiques, comme dans mes échanges avec le monde de l’entreprise. Et ce fut une surprise non moins grande de voir mes ouvrages de recherche sur le transport optimal cités dans des articles récents sur l’intelligence artificielle : comme un signe qu’il m’était impossible d’échapper à ce sujet polymorphe ! Du reste, depuis quelques années plus personne ne peut y échapper, tant il est devenu omniprésent dans les discussions économiques et sociales… » Source : https://www.ladocumentationfrancaise.fr/rapports-publics/184000159/index.shtml - Lire aussi : La stratégie IA, pour faire de la France un acteur majeur de l’intelligence artificielle
  • Renouveau de l’Intelligence artificielle et de l’apprentissage automatique - Rapport de l’Académie des technologies - Commission technologies de l’information et de la communication 180317 - Intelligence artificielle indb1 27/03/2018 15:54 - ©Académie des technologies - Résumé – « L’Intelligence artificielle (IA) est un domaine de l’informatique, un ensemble de disciplines qui s’intéressent au raisonnement et à l’imitation des capacités humaines. Depuis longtemps l’IA a une large intersection avec l’apprentissage automatique, une approche qui permet d’extraire des connaissances à partir de données. Les progrès spectaculaires des réseaux neuronaux profonds, en particulier dans le domaine de la perception (comme la vision artificielle ou la reconnaissance de la parole), ont créé une très forte attention ces dernières années, mais le domaine de l’Intelligence artificielle ne se réduit pas aux réseaux neuronaux ou à l’apprentissage automatique .L’Académie des technologies s’est intéressée à ce domaine parce qu’il est en grande partie tiré par la technologie et la pratique. En discutant avec de nombreux experts d’horizons variés, nous nous sommes concentrés sur les conditions nécessaires pour la mise en œuvre de ces approches et les conseils qu’il est possible de donner à ceux qui souhaitent passer à l’action, en particulier aux entreprises. L’IA n’est pas une technique spécifique et facilement identifiable, mais un ensemble large de méthodes qui ont vocation à s’intégrer dans l’ensemble des méthodes et outils informatiques. La modélisation et la compétence métier jouent un rôle fondamental dans l’obtention des succès. En positif, du point de vue de la compétitivité de la France, cela signifie que ce n’est pas un « service » qui serait fourni par un acteur dominant (par exemple, américain). En négatif, il y a un investissement important à faire pour construire les processus de traitement de données, les protocoles de mise au point et le savoir-faire de mise en œuvre. L’IA n’est pas un but en soi, mais un moyen qui peut servir à des fins multiples et qui est donc destiné à pénétrer la majorité des pratiques et des environnements, dans l’entreprise comme dans la société civile. L’enjeu, stratégique et compétitif, est la maîtrise de ces méthodes par les acteurs de l’écosystème français. Les entreprises doivent développer leurs capacités de mise en œuvre en travaillant sur leurs infrastructures de données, sur leur environnement logiciel qui doit être ouvert au monde du logiciel libre et en favorisant le travail itératif en cycle court de petites équipes pluridisciplinaires. L’accès à des grandes capacités de calcul est essentiel car il détermine le cycle d’apprentissage : plus on a accès à des machines rapides et spécialisées, plus on peut faire d’itérations du processus complexe qui est décrit dans ce rapport. Les domaines de l’Intelligence artificielle et de l’apprentissage comportent une dimension importante liée aux technologies et aux pratiques qui doivent recevoir l’attention et les moyens des pouvoirs publics. Il faut faire émerger des « centres d’essais et de validation » par domaine d’application, regroupant industriels et chercheurs au niveau français d’abord, puis au niveau européen. Le développement de l’Intelligence artificielle s’appuie sur la disponibilité de larges corpus annotés de données. Il est essentiel de faire entrer les industriels européens dans une logique de « norme de processus utilisant les données » avec une « finalité d’usage » explicite (par opposition à la « finalité de collecte » de la loi Informatique et Liberté) et une forme de rescrit juridique associé à ces normes permettant d’échapper au droit commun du GDPR (voir Règlement général sur la protection des données ou RGPD, ou encore GDPR, de l’anglais General Data Protection Regulation). Les pouvoirs publics ont un rôle à jouer pour développer un écosystème favorable, par la mise à disposition de données publiques, par le développement de la formation et, de façon plus globale, par une communication positive sur ces nouvelles technologies de l’information. La réussite de l’écosystème de l’Intelligence artificielle passe également par l’usage des applications et la collecte des données, ce qui suppose une relation pacifiée entre la société civile et ces nouvelles technologies…. » - Référence ici : http://academie-technologies-prod.s3.amazonaws.com/2018/04/06/13/49/30/183/Rapport_IA_DEF.pdf
    Ce dossier fait suite à celui-là : ’Etat de l’art et prospective concernant l’intelligence artificielle (IA) dans les domaines artistiques (arts numériques) en France, au Québec Canada et en Californie’ par Jacques Hallard avec Bastien Maleplate, mardi 03 septembre 2019. Il est construit en 3 rubriques notées de A à C.

La rubrique A complète les applications de l’Intelligence Artificielle (IA) dans certains des domaines artistiques (arts numériques). L’intelligence artificielle, « définie comme intelligence présentée par les machines, a de nombreuses applications dans la société d’aujourd’hui. Plus précisément, c’est l’IA faible, la forme d’IA avec laquelle les programmes sont développés pour effectuer des tâches spécifiques, qui est utilisée pour un large éventail d’activités, y compris le diagnostic médical, le commerce électronique, le contrôle des robots et la télédétection. L’IA a été utilisée pour développer et faire progresser de nombreux domaines et industries, y compris la finance, la santé, l’éducation, le transport, et plus encore... »

La rubrique B aborde la place de l’Intelligence Artificielle (IA) dans les communications par les médias et les réseaux sociaux. Pour faire un point sur les réseaux sociaux actuels, voir [Liste] Quels sont les 24 Réseaux Sociaux les Plus Populaires ?-14 février 2019 > https://www.leptidigital.fr/reseaux-sociaux/liste-reseaux-sociaux-14846/ .

La rubrique C retrace la récente politique gouvernementale en France qui vise à stimuler et à implémenter l’Intelligence Artificielle (IA) dans quelques secteurs considérés comme prioritaires. Voir Intelligence artificielle :’faire de la France un leader’ - 29 mars 2018 – « La stratégie de la France en matière d’intelligence artificielle a été exposée, le 29 mars 2018, lors de la conférence ’AI for Humanity’ au Collège de France, par le président de la République… - ‘L’intelligence artificielle apparait souvent comme une promesse mais ne nous y trompons pas, cette révolution ne se produira pas dans 50 ou 60 ans : elle a lieu en ce moment même. Cette transformation radicale est à la fois une chance inouïe et une responsabilité immense. C’est maintenant que nous devons nous emparer pleinement des opportunités de l’intelligence artificielle tout en pensant le cadre de sa régulation… »

C‘est un total de 23 documents qui ont été sélectionnés dans ces 3 rubriques (A à C) et dont les intitulés, descriptifs et accès sont donnés dans le sommaire ci-dessous.

Mais, ne pas oublier toutefois qu’une généralisation et une intensification du recours à L’IA dans tous les domaines pose déjà des problèmes de diverses natures : sécurité, libertés, consommations effrénées d’électricité et contribution négative aux changements climatiques, épuisement des ressources en éléments rares pour la confection des équipements, fractures et inégalités numériques au sein des populations et entre états, manipulations médiatiques, concentration des pouvoirs économiques et financiers, etc … C’est surtout le sujet crucial de l’énergie qui doit être pris en compte dès maintenant ; des personnalités comme Jean-Marc Jancovici préconisent d’ores et déjà une sobriété numérique incontournable ; celui-ci nous engage tous et avant tout à « S’adapter à la raréfaction de l’énergie  » (28/03/2018, vidéo 1:38:48 ajoutée le 7 avril 2018. « La Gazelle, journal étudiant et inter-universitaire, en partenariat avec ‘Sciences Po Environnement’, ont invité Jean-Marc Jancovici, l’un des plus grands experts énergétiques actuels, le 28 mars 2018. Vidéo originale : https://www.youtube.com/watch?v=7ice6... Autour du thème ’Raréfaction de l’énergie, comment l’anticiper techniquement, s’adapter politiquement’, nous parlerons de la nécessité d’une frugalité énergétique pour les années à venir face au pic pétrolier, à la pollution atmosphérique, à la dégradation des sols et des écosystèmes en général. Ancien polytechnicien et enseignant aux Mines ParisTech, il est régulièrement sollicité pour des analyses stratégiques par EDF ou le gouvernement français. Le cabinet de conseil Carbone4, qu’il a fondé, a notamment contribué au rapport ministériel épineux sur « Notre-Dame-des-Landes ». Bien conscient des enjeux environnementaux actuels, il est fortement impliqué dans les réflexions sur la transition énergétique à engager. A travers ses livres ( Dormez tranquille jusqu’en 2100 ), ou ses chroniques dans les Echos, Jean-Marc Jancovici s’efforce de critiquer les écueils de la « croissance verte » alternant graphiques judicieux et métaphores pédagogiques. Face aux difficultés d’approvisionnement énergétiques et métallurgiques à venir, il propose une posture écologique originale et détonante aussi bien que rationnelle et réaliste. Site de Jancovici : http://jancovici.com Page facebook : https://www.facebook.com/jeanmarc.jan... - Catégorie : Actualités et politique. Source : https://www.youtube.com/watch?v=XWUt-K-KmMo

Retour au début de l’introduction

Retour au début du contenu des définitions préliminaires

Retour au début du dossier


Sommaire


Rubrique A – L’IA et les Arts

1. Introduction à l’Intelligence artificielle à l’aide de Wikipédia

2. Distinguer l’Intelligence artificielle faible de l’Intelligence artificielle forte

3. Article détaillé de Wikipédia sur l’Intelligence artificielle faible.

4. Wikipédia fait la distinction entre intelligence artificielle, ‘machine learning’et ‘deep learning’

5. Synthèse sur les différences, en Intelligence Artificielle, entre ‘machine learning’ et ‘deep learning’ ? Valentin Blanchot Twitter@vblanchot 30 janvier 2019 – Document ‘siecledigital.fr’

6. Art Tech  : l’IA modifie-t-elle notre manière de consommer l’art  ? Par Anne Gleyze( photo ) - 11.06.2019 - Document ‘connaissancedesarts.com’

7. Collaboration et co-création entre artistes : duo, groupes, collectifs en arts plastiques du début des années 1960 à nos jours- Etude coordonnée par Patricia Marszal - Document ‘Canopé’

7bis. Comment l’IA devient-elle un artiste ? - Document ‘inprincipio.xyz’

7ter. Une IA uniquement génératrice de photos : ‘Archillect’, l’élégance de l’algorithme

Retour au début du sommaire


Rubrique B – L’IA dans les médias et les réseaux sociaux

8. IA dans les médias, un peu, beaucoup, passionnément ? Une cartographie des applications d’Intelligence Artificielle Par Kati Bremme, Direction de l’Innovation et de la Prospective - 26 mai 2019 – Document ‘meta-media.fr’

9. Quand médias et réseaux sociaux sont à l’œuvre pour fabriquer et rapporter les actualités

9.1. Quelques exemples de désinformation, conspiration, impostures et besoins de modération, diffusés par ‘vice.com’

9.2. Les droits du numérique sont défendus par ‘La Quadrature du Net’

9.3. Repérage spatial de la dynamique des contributions numériques touchant la France

9.4. Les outils numériques et l’Intelligence Artificielle avec reconnaissance faciale sont utilisés par la police chinoise par Lukas Stefanko @LukasStefanko 19 août 2019

9.5. Les évènements de Hong Kong durant l’été 2019 – Quelques exemples

Retour au début du sommaire


Rubrique C – La politique française pour insuffler l’IA dans quelques secteurs

10. Communiqué de presse - Publication « Intelligence artificielle – Etat de l’art et perspectives pour la France » - Document officiel ‘entreprises.gouv.fr - 2019

11. Etude - Intelligence Artificielle – État de l’art et perspectives pour la France - Publié le 21/02/2019 – Document officiel#ELFCommissariat général à l’égalité des territoires, ‘cget.gouv.fr’

12. Étude comparative internationale - Stratégies nationales en matière d’intelligence artificielle

13. Qu’est-ce qui se cache derrière le concept de French Tech selon Wikipédia ?

14. Label French Tech Culture autour d’Avignon, vallée du Rhône et Vaucluse

15. Cinq milliards d’euros pour transformer les start-up françaises en licornes Par Léna Corot - 18 septembre 2019. Document ‘usine-digitale.fr’

16. Que font les startups du Next40, les fleurons de la French Tech ?Par François Manens - 18/09/2019

Retour au début du sommaire

Retour à l’introduction

Retour au début du dossier

1.
Introduction à l’Intelligence artificielle à l’aide de Wikipédia

L’intelligence artificielle (IA) est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence »1. Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée2. D’autres, remarquant la définition peu précise de l’IA, notamment la CNIL, introduisent ce sujet comme « le grand mythe de notre temps »3.

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l’informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives4.

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques.

Sommaire

Article complet sur ce site : https://fr.wikipedia.org/wiki/Intelligence_artificielle#Distinction_entre_intelligence_artificielle,_machine_learning_et_deep_learning

Retour au début du sommaire

2.
Distinguer l’Intelligence artificielle faible de l’Intelligence artificielle forte

IA forte et IA faible – extrait de l’Intelligence Artificielle - A partir de quand la programmation laisse-t-elle place à l IA ? - Document ‘tpe-intelligence-artificielle.e-monsite.com’

Définition de l’Intelligence artificielle faible

L’intelligence artificielle faible constitue une recherche effectuée par un ingénieur : chercher à construire des systèmes de plus en plus autonomes, des algorithmes capables de résoudre des problèmes d’une certaine classe (explication des algorithmes). Mais dans ce cas la machine fait comme si elle était intelligente. Des exemples concrets sont les programmes conversationnels qui tentent de passer le test de Turing. Ces programmes semblent « intelligents », mais ne le sont pas. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing. Mais même grâce à cela, comment pouvons-nous prétendre que l’intelligence humaine et celle de la machine ont des propriétés différentes ? Pour cela, ces tests sont contestés et la « simulation de l’intelligence » devrait être remplacée par « reproduction de l’intelligence ». Mais ce n’est qu’une évolution, et non une révolution ; en effet, l’intelligence artificielle s’inscrit dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960 la Supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité. Il s’agit donc surtout d’intelligence humaine reconstituée, et de programmation d’un apprentissage.

Définition de l’Intelligence artificielle forte

L’Intelligence artificielle forte fait référence à une machine capable de produire un comportement intelligent et aussi d’éprouver une impression d’une réelle conscience de soi, de vrais sentiments. La machine serait donc apte a comprendre ce qu’elle fait. De fait que l’intelligence est de source biologique, donc matérielle, les scientifiques ne voient pas de limites à pouvoir réaliser un jour une intelligence consciente sur un support matériel. Mais cela suscite de nombreux débats. Le fait qu’à l’heure actuelle, si il n’y a pas d’ordinateurs ou de robots aussi intelligents que l’homme, ce n’est pas un problème de matériel, mais de conception (d’après cela, nous pouvons donc considérer qu’il n’y a pas de limite fonctionnelle. Pour pouvoir déterminer si une machine peut être considérée comme ayant une intelligence artificielle forte, il faut que celle-ci aie réussi à passer le test de Turing. 

Idées de grandeurs numériques en quelques chiffres

Le cerveau humain (grossièrement 2 x 1014 opérations logiques par seconde, car formé de 2 x 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde). En 2005, microprocesseur typique traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une vitesse typique de 2 GHz, ce qui place en puissance brute dans les 1011 opérations logiques par seconde, seulement dans le cas d’un matériel de particuliers.

Illustration - Un exemple de l’utilisation de l’IA dans un jeu

Résultat de recherche d’images pour ’e-monsite.com’E-monsitehttps://www.e-monsite.com

Source : http://tpe-intelligence-artificielle.e-monsite.com/pages/i-2-ia-forte-et-ia-faible.html

Retour au début du sommaire

3.
Article détaillé de Wikipédia sur l’Intelligence artificielle faible.

La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l’intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d’humains face à d’autres humains lors d’un dialogue.

Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu’il s’agit d’une simple mystification : le programme ne comprend en réalité rien.

Les tenants de l’IA forte admettent que s’il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu’on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d’une machine et celui d’un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l’intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l’intelligence ».

Les tenants de l’IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l’IA forte qui contestent cette interprétation.

Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.

Il s’agit surtout d’intelligence humaine reconstituée, et de programmation ad hoc d’un apprentissage, sans qu’une théorie unificatrice n’existe pour le moment (2011). Le Théorème de Cox-Jaynes indique toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé d’apprentissage devra être soit conforme à l’inférence bayésienne, soit incohérent à terme, donc inefficace65.

Source : https://fr.wikipedia.org/wiki/Intelligence_artificielle#Intelligence_artificielle_faible

Retour au début du sommaire

4.
Wikipédia fait la distinction entre intelligence artificielle, ‘machine learning’ et ‘deep learning’

Schéma montrant le positionnement des notions d’IA, machine learning et deep learning imbriquées les unes aux autres.

Il y a une confusion fréquente dans le débat public entre « intelligence artificielle », apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais sont imbriquées :

  • l’intelligence artificielle englobe le machine learning, qui lui-même englobe le deep learning66 ;
  • l’intelligence artificielle peut aussi englober plusieurs autres types de briques logicielles, comme les moteurs de règles67.
    Estimation de faisabilité

Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose68 six « préceptes » conditionnant un système de dialogue évolué, en précisant qu’elles sont déjà mises en œuvre par des systèmes existants :

  • objectivité (utilisation d’une base de connaissance par le système) ;
  • textualité (prise en compte d’interventions de plus d’une phrase, qu’elles émanent du système ou de l’utilisateur) ;
  • apprentissage (intégration au moins temporaire d’informations issues des propos de l’utilisateur) ;
  • questionnement (demande de précisions de la part du système) ;
  • rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ;
  • explicitation (explicitation par le système d’une réponse qu’il a apportée précédemment).
    Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation de l’utilisateur auquel il a affaire, pour s’adapter à lui. De son côté, l’utilisateur a tendance à s’adapter au système à partir du moment où il a bien compris qu’il s’adresse à une machine : il ne conversera pas de la même manière avec un système automatisé qu’avec un interlocuteur humain, ce qui présente pour le concepteur l’avantage pragmatique de simplifier certains aspects du dialogue.

Source : https://fr.wikipedia.org/wiki/Intelligence_artificielle#Distinction_entre_intelligence_artificielle,_machine_learning_et_deep_learning

Retour au début du sommaire

5.
Synthèse sur les différences, en Intelligence Artificielle, entre ‘machine learning’ et ‘deep learning’ ? Valentin Blanchot Twitter@vblanchot 30 janvier 2019 – Document ‘siecledigital.fr’ - Illustration - ©Franck.V / Unsplash

On vous explique l’évolution de l’intelligence artificielle et ses modes d’apprentissage. Du machine learning, jusqu’aux GANs, en passant par les réseaux de neurones artificiels.

Si le terme intelligence artificielle est né en 1950 dans un article publié par Alan Turing, son application n’aura jamais été aussi performante que depuis ces dernières années. Néanmoins, l’IA comme domaine scientifique existe depuis 1956 suite à la conférence tenue au Darmouth College, ce qui sonne le début de l’histoire de l’intelligence artificielle. Aujourd’hui, elle vient de pair avec d’autres termes comme algorithme, machine learning, réseau de neurones artificiels, deep learning … Voyons ensemble ce qui hiérarchise tout cela.

Depuis 2012, les composants informatiques sont de plus en plus puissants et de moins en moins chers. Cela permet à des projets de recherche de voir le jour plus facilement. D’autre part, l’engouement pour l’intelligence artificielle a lancé de vastes plans d’optimisations de la collecte des données qu’il s’agisse de dossiers médicaux, d’images, de vidéos, ou des données de cartographies. C’est d’autant plus vrai lorsqu’on constate le faible coût que représente le stockage des données aujourd’hui. Grâce à tout cela, l’IA s’est perfectionnée et elle a trouvée de nouveaux terrains de jeu dans la médecine, dans le traitement des images, dans la programmation informatique, et même dans l’agriculture. C’est alors qu’émergent des termes comme machine learning, réseaux de neurones artificiels, GAN, ou encore deep learning, selon la complexité du travail appliqué à ces programmes.

L’intelligence artificielle faible.

Par définition, l’IA faible est un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. On la met en opposition à l’IA forte, qui, elle, est dotée de conscience et donc d’une sensibilité particulière. Cependant, l’IA forte reste encore du domaine de la science-fiction. Toutes les intelligences artificielles que nous croisons dans la vraie vie sont faibles.

Dans leur état le plus basique, elles ne sont qu’un algorithme qui n’évolue pas, et qui ne se base pas sur une quantité de données. Ceci en opposition au machine learning ou au deep learning. Ensuite, l’exemple le plus sommaire, d’une IA, c’est le robot contre lequel vous jouez aux échecs, à Warcraft, ou qui anime vos parties de Theme Hospital.

Dès lors que l’exploitation de la donnée entre en jeu, on commence à apprendre aux machines. Ainsi elles évoluent, se perfectionnent continuellement, et c’est dans les années 90 que le machine learning entre en jeu.

L’apprentissage automatique sacré par Deep Blue

Dès lors qu’entre en jeu un concept d’apprentissage, bon nombre de scientifiques rêvent de passer le test de Turing, évoqué en 1950 dans l’ordinateur et l’intelligence. Ce test consiste à engager une conversation masquée entre un humain, une machine, et un autre humain. Si le premier humain n’est pas en mesure de désigner l’interlocuteur qui est une machine, alors cette dernière passe le test de Turing.

La toute première fois qu’on parle de machine learning, c’est en 1959, lorsque Arthur Samuel a présenté pour IBM un programme jouant au jeu de dames. Sa particularité ? Il l’améliorait à chaque partie. L’informaticien a créé un système qui permettait au programme de se souvenir de chaque position qu’il avait déjà vu, avec les opportunités qu’elles offraient. Il l’a également fait jouer contre lui-même comme autre moyen d’apprentissage. Grâce à ces données, Arthur Samuel a fait évoluer son programme et il aurait ainsi été en mesure de battre le 4ème meilleur joueur de dames des États-Unis. Il s’agit également du premier programme informatique à jouer à un jeu de plateau à un niveau avancé.

Le véritable sacre de l’apprentissage automatique survient lorsqu’en 1997 Deep Blue bat Garry Kasparov aux échecs, invaincu jusqu’alors. Le superordinateur créé par IBM inspirera la naissance de Watson, mais aussi de nombreux projets d’apprentissage des intelligences artificielles. Le développement rapide de l’information, du traitement des données, et du cloud nous emmènera jusqu’à AlphaGo développé par DeepMind, rachetée par Google en 2014.

Depuis longtemps, nous, internautes, avons entraînés des systèmes de machine learning. En aidant à Google à identifier un chat, un panneau STOP, ou un feu de signalisation lors d’un CAPTCHA la plupart du temps. Au départ, l’IA fait difficilement la différence entre l’image d’un chat et celle d’un buisson. À force de lui dire « sur cette image il y a un chat, mais pas sur celles-ci » le programme comprend ce qu’est un chat. Seulement, pour progresser, il faut développer le bon algorithme d’apprentissage, et il faut du temps.

Aujourd’hui, le machine learning continue d’être utilisé, mais plus dans le cas de systèmes experts, ou de superordinateurs. Ces techniques ont posé les bases permettant de faire émerger des intelligences artificielles plus complexes, creusant plus profond. C’est le cas des réseaux de neurones artificiels.

Les réseaux de neurones artificiels : un fonctionnement calqué sur nos cerveaux

Si le terme « réseau de neurones » émerge depuis peu dans les médias, c’est qu’il était très difficile à mettre en place jusqu’à récemment. En effet, faire raisonner un programme comme raisonne le cerveau humain nécessite une puissance informatique impressionnante. C’est pour cette raison que les théories étaient fréquentes, mais aucune application ne voyait le jour. Pourtant cette approche est née avec les premières réflexions sur l’intelligence artificielle dans les années 1950.

Pour comprendre le fonctionnement d’un réseau de neurones (artificiel), imaginez plusieurs couches, avec des connexions entre elles. Chaque couche peut correspondre à une tâche, et chaque neurone a une mission bien précise. Dans le cas où l’on veut savoir si une image représente un feu tricolore, on doit dire s’il y a trois ronds pour les lumières, si la forme générale est rectangulaire, si une des lumières est allumée en vert orange ou rouge, si la taille correspond, etc. Chacun de ces attributs est évalué, avec un taux de certitude. En passant chaque couche, et en associant les résultats, le réseau est capable de livrer un taux de certitude. Exemple : à 97% c’est un feu tricolore, à 12% ce sont des LEGO, à 5% on voit des boutons de chemise. À la fin, le réseau est informé s’il a vu juste ou non.

Au départ, le réseau se trompe, beaucoup, vraiment beaucoup. À force de confronter ses résultats avec la réalité, à force de voir différentes images, il apprend. Que le feu de signalisation soit à l’horizontale, que l’image soit en noir et blanc, qu’il y ait une pluie battante, ou qu’il fasse nuit, il l’identifiera de mieux en mieux.

C’est à partir de ce fonctionnement, et grâce, encore une fois, au développement des capacités de calcul des ordinateurs, qu’est né le deep learning.

Plus il y a de couches, plus c’est deep

Dès lors que l’on a compris l’intérêt de créer des structures complexes, avec plus de couches, et plus de données, bon nombre de projets ont vu le jour. Ils ont bien souvent été financés au sein des GAFAM, mais également dans des écoles, ou dans d’autres structures privées. Leurs applications sont nombreuses, mais les plus connus sont dédiés à l’imagerie médicale, le traitement du langage, la reconnaissance vocale, etc. On est loin du feu tricolore.

La première fois que l’on parle de deep learning, c’est grâce à la professeure Rina Dechter en 1986. Ensuite, cette approche est mise en pratique par Yann LeCun en 1989. L’actuel boss de l’IA chez Facebook avait à l’époque utilisé un réseau de neurones artificiel profond afin de reconnaître les codes postaux écrits à la main sur des lettres. Un programme simple aujourd’hui, mais qui avait nécessité trois jours d’apprentissage.

Des recherches et des études sur la structure des réseaux de neurones continueront d’animer la communauté scientifique jusqu’en 2009, année où cette pratique prend son envol. On considère cette année comme le big bang du deep learning. À ce moment-là, Nvidia met ses processeurs graphiques (GPU) à contribution. Pour Andrew Ng, cofondateur de Google Brain, l’exploitation des GPU pourrait créer des systèmes d’apprentissage profond jusqu’à 100 fois plus rapides. L’entraînement des algorithmes passerait de plusieurs semaines à seulement quelques jours.

C’est ainsi que Andrew Ng crée une architecture avec bien plus de couches et de neurones qu’auparavant. Il l’entraîne ensuite avec des contenus provenant de 10 millions de vidéos YouTube afin que son programme puisse identifier et extraire les images avec des chats. Nous sommes en 2012.

C’est à cette date que l’IA explose véritablement. La vaste disponibilité des GPU permet de créer des traitements parallèles pour les programmes et ainsi les rendre plus rapides, moins chers, et même plus puissants. Ajoutons à cela, depuis 2015, la quantité astronomique de données que l’on peut utiliser et stocker, et les intelligences artificielles ont tout pour s’épanouir
.
Aujourd’hui, des IA sont capables de faire des tâches précises bien mieux que l’Homme. Conduire, identifier une tumeur, joueur à un jeu vidéo, recommander un film, etc. Le deep learning a permis aux chercheurs de mettre en place bien des éléments pratiques du machine learning, et ce, pour un meilleur futur.

Un schéma pour tout comprendre sur l’intelligence artificielle

Toutes (ou presque) les théories d’apprentissage, les structures de réseaux de neurones artificiels, les applications de certains traitements ont vu le jour dès les premiers instants de l’intelligence artificielle. Cependant, l’informatique aura été la clé de son épanouissement et de sa mise en pratique. De l’intelligence artificielle basique au deep learning, il aura fallu attendre des décennies.

Chaque approche évolue de son côté, et permet de renforcer l’autre dans le cas où l’on va plus profond dans l’apprentissage. Les structures, les fonctionnements, les concepts sont constamment remis en question. C’est le cas d’une technique que Yann LeCun a qualifié d’idée « la plus intéressante des 10 dernières années dans le domaine du Machine Learning. »

Les GANs rendent les IA créatives

Les GANs, ou Generative Adversarial Networks sont utilisés dans le cadre d’un entrainement intensif, mais extrêmement efficace. Deux réseaux de neurones s’opposent. Le premier (générateur) doit créer une image, mettons, un arbre. Il doit ensuite soumettre cette image parmi d’autres vraies images d’arbres. Le second (discriminateur) doit dire quelle image n’est pas celle d’un arbre, et la renvoie. Ainsi, le générateur peut confronter son image avec celles qui ont été validées, pour ensuite en recréer une meilleure, la soumettre, et ainsi de suite. La dernière étape est lorsque le discriminateur n’est plus en mesure d’éliminer une image.

Les résultats des GANs sont bluffants. Nvidia a travaillé sur plusieurs cas de figure avec ces réseaux dont la plus impressionnante estla génération de visages que vous pouvez voir ci-dessous. S’ils semblent tous être vrais, ils n’existent pas. Ils ont été réalisés par un programme.

Une application dans le design industriel fait partie des éléments sur lesquels les GANs vont être mis à contribution.

Des simples robots dans les jeux vidéo, l’intelligence artificielle occupe une place quotidienne dans nos vies aujourd’hui. Nous l’utilisons sans nous en rendre compte sur Google, Spotify, Netflix … Si Hollywood lui prête un destin de domination de l’Homme, elle n’est toujours pas programmée pour ça, et difficile de penser que ce sera le cas. Très performante sur des tâches extrêmement complexes et précises, l’IA n’est toujours pas en mesure d’avoir une intelligence générale, c’est à dire d’apprendre à être intelligente comme nous, d’apprendre le monde comme un bébé ou un enfant peut le faire.

Siècle Digital https://siecledigital.fr/ -

Résultat de recherche d’images pour ’siècle digital’

© 2017 Siècle Digital est une marque déposée par SHINE MEDIA SAS - Tous droits réservés • Source : https://siecledigital.fr/2019/01/30/differences-intelligence-artificielle-machine-learning-deep-learning/

Retour au début du sommaire

6.
Art Tech  : lIA modifie-t-elle notre manière de consommer lart  ? Par Anne Gleyze( photo ) - 11.06.2019 - Document ‘connaissancedesarts.com’

Reproduction - Leonal Moura, Robot Art, 2017, essaim de robots et peintures, dimensions variables. Oeuvre présentée dans l’exposition « Artistes et Robots » au Grand Palais en 2018 ©Leonel Moura/DR

L’intelligence artificielle (IA) prend une place prépondérante dans notre environnement quotidien. Du monde politique à celui de la banque, l’algorithme d’apprentissage à partir de données - aussi appelées data - façonne nos comportements.

Qu’en est-il pour le monde de l’art  ?

On retrouve les prémices de cette « intelligence » numérique dès 1959 avec l’art robotique de Nicolas Schöffer. Intitulée CYSP 1, sa sculpture en mouvement est dotée d’un « cerveau électronique » connecté à des capteurs, qui lui permet d’interagir avec les variations de son, de couleurs ou de lumière. Un art cinétique remis sur le devant de la scène à l’occasion de l’exposition « Artistes & Robots » au Grand Palais en 2018. Il faudra attendre 2001 et le collectif japonais TeamLab pour voir interagir l’art numérique avec l’humain. Le credo de leur manifeste artistique est limpide : «  Libérer l’art des contraintes physiques ». Une vraie révolution qui ne perce pourtant que dix ans plus tard et qui connaît depuis une véritable accélération.

Boudée par le public à sa sortie, l’exposition TeamLab, présentée dans la Grande Halle de la Villette à Paris en 2018, a connu quant à elle, un vif succès et s’invite désormais dans le monde entier. Petits et grands sont immergés dans un monde féerique avec lequel ils peuvent interagir. La performance réside autant dans la participation du visiteur à l’œuvre que dans le rendu final. Depuis, les projets fleurissent. En Floride, les visiteurs du Salvador Dali Museum de St. Petersburg sont accueillis depuis le printemps dernier par l’hologramme du peintre surréaliste. L’illusion étant assurée par la technologie du Deep Fake. Le principe consiste à injecter plus de 10 000 images d’une personne prise sous différents angles, l’intelligence artificielle générant alors des vidéos plus vraies que nature.

Mais, au-delà des centres culturels et musées, l’IA envahit aussi les salles de ventes aux enchères. Suggérer à un client potentiel les œuvres les plus adaptées à ses envies en un clic, c’est l’ambition que Sotheby’s compte réaliser avec l’acquisition de Thread Genius. Andrew Shum et Ahmad Qamar, les deux fondateurs de la start-up, ont développé un véritable moteur de recherche visuel. En utilisant la reconnaissance d’images, la technologie du Machine Learning (machine apprenante) reconnaît toutes les pièces d’art similaires qu’elle a en mémoire. Elle est capable de distinguer précisément leurs caractéristiques : type d’œuvre, couleur, forme, etc. À partir des choix de navigation du visiteur du site Web, l’algorithme lui propose d’autres pièces d’art susceptibles de l’intéresser. Avec pour objectif final, bien sûr, de susciter l’achat. Le showroom en ligne de Sotheby’s reprend ainsi les codes et le fonctionnement de plateformes telles que Netflix ou Deezer.

En octobre 2018, Christie’s orchestre la première vente d’une composition assistée par le Deep Learning (apprentissage profond). Edmond de Bellamyest une toile entièrement réalisée à partir d’algorithmes. Pour l’accomplissement de ce portrait inachevé d’un membre fictif de la bourgeoisie du XIXe siècle, le collectif français Obvious a « nourri » le logiciel de plus de 15 000 portraits datant du XIVe au XXe siècle. Après les avoir analysés, la machine a créé un nouveau portrait. Ainsi, onze toiles ont vu le jour, chacune représentant des membres fictifs de la famille Bellamy. Estimé entre 7000 et 10 000 dollars, Edmond de Bellamy a atteint le prix de vente record de 430 000 dollars (400 000 €). Un signe fort sur l’intérêt que nourrit le marché de l’art actuel à l’égard de ce nouveau support de création.

Référence : Le Magazine Connaissance des Arts : Le numéro du mois - Je m’abonne- Liseuse- Toutes nos publications

À lire aussi :

Art Tech  : 8 nouvelles pépites pour lincubateur du Patrimoine

Art Tech : cet été, plongez dans la VR !

Art Tech  : La réalitévirtuelle au service de Notre-Dame

Nouveau talent : teamLab, la magie du numérique

Sylvie Fanchon et l’intelligence artificielle au Frac Franche-Comté de Besançon

Coder le monde au Centre Pompidou à Paris

Artiste et robot en duo au Grand Palais à Paris

[FLASH EXPO] Artistes, robots et intelligence artificielle au Grand Palais

L’art immersif de Dumb Type au Centre Pompidou Metz

[FLASH EXPO] Exposition « Dumb Type » au Centre Pompidou Metz : les nouvelles technologies au service de l’art

Connaissance des Arts – Actualité artistique et culturelle

Résultat de recherche d’images pour ’Connaissance des Arts’

© Connaissance des Arts 2019 - Source : https://www.connaissancedesarts.com/art-contemporain/art-tech%E2%80%89-lia-modifie-t-elle-notre-maniere-de-consommer-lart%E2%80%89-11121830/

Retour au début du sommaire

7.
Collaboration et co-création entre artistes : duo, groupes, collectifs en arts plastiques du début des années 1960 à nos jours - Etude coordonnée par Patricia Marszal - Document ‘Canopé’ - Le réseau de création et d’accompagnement pédagogiques

Cette étude est inscrite, à partir de 2018 et pour trois ans, au programme d’enseignement de spécialité d’arts plastiques au choix, en série littéraire, au titre des œuvres et thèmes de référence du baccalauréat.

Patricia Marszal, IA-IPR d’arts plastiques, académie de Lille, a coordonné Éduquer à l’image contemporaine, 11 situations d’apprentissage en arts plastiques (Réseau Canopé, 2015). Elle a également dirigé, en 2013, La Question de l’objet : situations d’apprentissage en arts plastiques, 6eet, en 2011, Des images aujourd’hui : repères pour éduquer à l’image contemporaine qui invitait à poser théoriquement les repères utiles à l’analyse des images qu’elles soient artistiques, scientifiques, fixes, animées, imprimées, projetées…

Introduction

Cette synthèse multimédia :

  • offre des clés de lecture pour engager les professeurs et élèves dans une réflexion commune et partagée autour de quelques questions et notions fondamentales inhérentes aux pratiques de collaboration et co-création entre artistes depuis 1960 ;
  • forme un premier accompagnement documentaire en articulant la question centrale du cycle terminal de l’enseignement de spécialité – l’œuvre – aux questions sous-tendues par « le chemin de l’œuvre » dans des créations artistiques à plusieurs ;
  • aborde également des problématiques du faire œuvre à partir des liens que peuvent entretenir les pratiques artistiques collaboratives et co-créatrices entre artistes avec les autres entrées du programme. En effet, s’il est propice d’investiguer cette question à partir des diverses étapes d’élaboration et de réalisation d’une œuvre spécifique ou plus globalement d’un ensemble de créations, il est aussi intéressant de situer les continuités ou les ruptures entretenues par ce type de démarches collectives ou en duo avec les notions traditionnelles d’œuvre et d’auteur.
    Cette synthèse pose les premiers grands jalons utiles à situer des enjeux contemporains des collaborations et co-créations entre artistes, en duos, en groupes, en collectifs. Elle soulève diverses problématiques qui, sans être exhaustives, favorisent une approche structurante de cette riche question. Celle-ci ne se confond pas avec une étude encyclopédique. Elle permet d’interroger, sous l’angle particulier des créations dites « à plusieurs », l’étude de l’évolution des statuts de l’auteur et de l’œuvre d’art, ce en quoi ils sous-tendent une transformation des formes et de l’idée de création artistique. Elle interroge en premier lieu, le chemin de l’œuvre, c’est-à-dire le processus qui mène de la conception à la monstration ou à la diffusion dans le contexte de créations à plusieurs. Cette ressource et une publication imprimée se complètent mutuellement.

Il s’agit tout d’abord, dans cette partie du programme de terminale « Le chemin de l’œuvre », de questionner, dans une dimension historique, ce qui dans les modes de monstration et de diffusion permet d’appréhender, au détour des années 1960, les actions collectives et les représentations articulant notamment l’art et la vie à travers les pratiques performatives. Des collectifs ont en effet collaboré au sein d’actions qui brouillent les catégories d’œuvres, les genres artistiques et qui convoquent souvent des gestes prosaïques pour créer.

Les autres questionnements du programme ne sont pas perdus de vue. Ainsi « L’œuvre, filiation, rupture » pose la question de l’auteur qui est enrichie et redéfinie par des pratiques plurielles, associant plusieurs créateurs ou duos d’artistes dans la vie et dans l’art. La pluripaternité exercée par des auteurs multiples, parfois dissimulés derrière des logos ou des emblèmes, participe aussi à une critique sociale par l’art. Adoptant à dessein des postures d’entreprises ou de sociétés, certains collectifs interrogent les modèles économiques, permettant, sous cet angle, d’éclairer les questions qu’il est possible d’aborder dans « L’œuvre, le monde ». Plus polémique et politique encore, le collectif s’inscrit aussi dans une filiation avec des pratiques rituelles proches des formes de primitivisme.

La dernière partie envisage la collaboration entre des artistes appartenant à des domaines divers éprouvant le besoin de s’associer ponctuellement afin d’enrichir l’acte artistique dans un champ plus élargi de dialogue, de correspondance ou de complémentarité des langages. Elle peut s’articuler à nombre de dimensions abordées par « L’espace du sensible ». La conclusion ouvre des perspectives dans une conception ouverte des modes participatifs.

Collaboration et co-création entre artistes : définitions et différences avec la tradition de l’atelier

Tradition de l’atelier vs collaboration et co-création

Si les pratiques artistiques convoquent de longue date les démarches collaboratives, notamment à travers les ateliers actifs dès la Renaissance, la figure installée au XIXe siècle de l’artiste démiurge et solitaire se voit malmenée par le développement, au cours du XXe siècle, des groupes, associations, familles, collectifs d’artistes, qu’ils s’inscrivent dans la formation de mouvements dadaïstes, surréalistes, issus du Bauhaus ou qu’ils s’exercent à plusieurs mains occasionnellement. Avec les avant-gardes, des groupes de créateurs inventent de nouveaux modes de vie et de production qui conduisent à envisager des formes de partage de la conception, des savoir-faire, de la diffusion participant ainsi d’un processus évolutif de l’acte de création.

Collaborer n’est pas nécessairement co-concevoir et co-créer

Les pratiques collectives d’artistes émanent très tôt des grands ateliers de productions artistiques pour répondre à l’afflux de commandes nombreuses. Les grands maîtres européens du XVIe et XVIIe siècles, tel Rubens, s’entourent déjà de spécialistes de la nature morte, de la peinture animalière, des sujets militaires, collaborateurs plus ou moins connus, pour entretenir de véritables entreprises au service des commanditaires religieux ou civils. Les trois frères Le Nain s’associent pour réaliser des peintures dont les historiens ne parviennent pas encore à identifier la signature. Jérôme Bosch commence à travailler dans l’atelier familial à Hertogenbosch avec son père, ses frères et ses neveux.

Si les pratiques collectives ne sont donc pas nouvelles, elles ont principalement répondu à la nécessité de produire beaucoup, en peu de temps, avec une maîtrise de tous les sujets. Dans les « ateliers » contemporains de Jeff Koons ou de Wim Delvoye, l’artiste reste le concepteur d’une œuvre essentiellement réalisée par des assistants qualifiés. Souvent signées d’un seul, ces œuvres ne sont pas revendiquées comme collectives.

Le savoir-faire de l’artiste : une des questions emblématiques de la création à plusieurs

Avec le XXe siècle et son lot de remises en cause des catégories, prônant jusqu’à la mort de l’art, l’œuvre collaborative se réclame d’une absence de définition traditionnelle, contrariant volontiers les notions de savoir-faire spécifique et de signature individuelle. Tantôt elle associe des auteurs de domaines différents (le Bloomsbury group en 1904 comporte déjà des économistes, écrivains, intellectuels, peintres…), tantôt elle récuse toute notion de compétence ou de maîtrise d’un médium ou d’une technique dans un lâcher-prise, parfois théorisé (les surréalistes et les cadavres exquis). Le style de l’artiste (a contrario d’absence de style ou l’idée de « style hybride ») est associé au principe de signature en tant qu’il rend reconnaissable l’auteur d’une œuvre.

La modernité s’installant, la réunion de plusieurs collaborateurs n’est plus envisagée seulement comme une plus-value qualitative dans la perspective d’une production plus performante ou plus abondante, mais comme une tentative de nouvelle définition de l’œuvre d’art affranchie de nombre de codes établis. En outre, dans la perspective des échanges entre des domaines variés de co-construction (sociaux, anthropologiques, politiques, scientifiques, artistiques), certaines œuvres contemporaines se nourrissent mutuellement des avancées des différents champs de la recherche et proposent une nouvelle manière de penser le monde. Des premières expériences de synesthésie de la fin du XIXe siècle ou du concept d’art total cher à Wagner, collaborations ou co-créations, co-conceptions ou co-constructions sont toujours à l’œuvre aujourd’hui.

Quelques jalons historiques

Les années 1960 : un moment charnière autour des pratiques performatives

À partir des années 1960, à travers des modes d’engagement multiple (social, éthique, politique), la figure unique de l’auteur tend à s’effacer au profit d’une singularité collective propice à une époque marquée par les utopies. Des communautés de pensée s’expriment à travers des communautés d’actions, notamment artistiques.

Si la participation du spectateur est de plus en plus sollicitée, du côté des créateurs l’absence souvent recherchée de hiérarchie entre les artistes, entre les arts, concourt à redéfinir autant la notion d’œuvre que celle d’auteur. Robert Filliou du mouvement Fluxus fait ainsi valoir que « l’art est ce qui rend la vie plus intéressante que l’art ».

Désir de non-hiérarchisation entre les créateurs et parfois entre les arts ; gestes et manifestations de « singularité collective »

Si les origines de Fluxus sont confuses, c’est George Maciunas qui baptise le mouvement lors de sa rencontre avec La Monte Young à la New School of Social Research de New York en 1960. La première manifestation Fluxus se déroule en Allemagne en 1962 à Wiesbaden ; puis Copenhague, Paris, Düsseldorf suivis du Festival of Misfits organisé par Daniel Spoerri, avec Robert Filliou, Ben Vautier, Emmett Williams, Robin Page…

George Brecht définit Fluxus par une communauté d’individus éparpillés et « dissemblables dans leur personnalité et leur travail » mais dont « l’approche humaine est sensiblement la même, pour combattre dur contre l’immense stupidité, tristesse et absence de sens qui font la plaie de notre vie » (in A. Labelle-Rojoux, L’Acte pour l’art, 1988). À travers les actions Fluxus, on assiste à une célébration de la vie où chacun occupe une place indéterminée à partir de simples protocoles telles les Variations sur un poulet, proposées par Dick Higgins en 1958.

Performances et happenings ou comment ces pratiques ont engagé du collectif dans l’art

Le happening : une hétérogénéité des langages artistiques, des moyens et des formes sollicités

Roselee Goldberg décrit la performance comme « faisant librement appel pour son matériau à nombre de disciplines et de techniques – littérature, poésie, théâtre, musique, danse, architecture et peinture, de même que vidéo, cinéma, projections de diapositives, et narration – les déployant dans toutes les combinaisons imaginables » (La Performance, du futurisme à nos jours, 2000).

Performances et happenings se développent au même moment dans un souci d’exprimer un changement des langages artistiques dans un contexte de bouleversements, au lendemain de la Seconde Guerre mondiale.

Dès les années 1950, le terme « happening » apparaît imprimé dans la revue Anthologist décrivant une pièce Le Démiurge. Son sous-titre : « Quelque chose qui doit se passer, un happening ». Allan Kaprow l’utilise en avril 1957 lors d’une exposition de ses environnements à la ferme de George Segal dans le New Jersey. Il s’agit alors de happenings qui introduisent une dimension temporelle. Pourtant, dès 1954, le groupe Gutaï rassemble une quinzaine d’artistes autour de Jirõ Yoshihara. Celui-ci finance le mouvement, en écrit le manifeste publié en 1956 et fonde un musée en 1962 : la Pinacothèque Gutaï.

Kaprow reconnaît l’antériorité du happening chez ces artistes nippons. Cependant, John Cage avait déjà organisé, en 1952, un event au Black Mountain College. Au-delà du caractère événementiel et du lien entre l’art et la vie développés par les artistes performeurs, c’est bien le travail collaboratif et l’hétérogénéité des moyens et des formes visuelles ou plastiques qui réunissent une combinaison d’éléments de natures diverses : actions, objets, sons et corps ; ceux des artistes comme ceux des spectateurs. Il s’agit bien d’un art de l’ici et maintenant, même si la majeure partie du corpus est désormais visible à travers des traces photographiques ou vidéo.

L’exemple de 18 Happenings in 6 Parts
Dans 18 Happenings in 6 Parts d’Allan Kaprow, qui a lieu en 1959 dans la galerie Reuben de New York, les spectateurs ont reçu des instructions qui définissaient leur rôle ainsi que celui des participants : « L’espace était cloisonné de parois de plastique constituant des pièces… Kaprow parlait et jouait d’un instrument de musique, Rosalyn Montague parlait et marchait. Shirley Pendergast et Janet Weinberger marchaient et jouaient d’un instrument de musique. Lucas Samaras marchait, parlait et jouait d’un instrument de musique et Robert Whitman parlait, marchait et jouait à un jeu ; quant à Sam Francis, Red Grooms, Dick Higgins, Lester Johnson, Alfred Leslie, Jay Milder, George Segal et Robert Thompson, ils peignaient des toiles vierges tendues dans des cloisons… Lorsque le tocsin tinta deux fois l’ensemble des actions avaient duré près d’une heure et trente minutes selon le canevas de Kaprow, comme il l’avait souhaité. » (A. Labelle-Rojoux, L’Acte pour l’art, 1988)

Des collaborations entre les arts : l’hétérogénéité et les gestes ordinaires sont aussi des qualités

L’hétérogénéité des acteurs assure le caractère imparfait du happening tel que le définit Claes Oldenburg, bien que Ray Gun, Theatre Store Days, Nekropolis, Autobodys, World’s Fair, Washes, présentés à partir de 1962, ne soient pas dénués de scénario ou de script. Ces performances occupaient des lieux aussi divers que son atelier-magasin The Store, mais aussi un parking, une cinémathèque, des bureaux ou une piscine, élargissant ainsi les espaces de monstration et contribuant ainsi à redéfinir le champ de l’action artistique et des publics, dans l’esprit des Combine Paintings de David Rauschenberg. Ce dernier s’entoure, lors de ses expériences à la Judson Church de New York, de professionnels de la danse et du spectacle. Cette nouvelle conception de la danse composée de gestes ordinaires, de mouvements quotidiens, lutte contre la notion de spécialisation peu compatible avec la philosophie de l’art et la vie propre à John Cage. Simone Forti, Trisha Brown, Yvonne Rainer, Lucinda Childs, Carolee Schneemann participent à cette aventure du Judson Dance Theater.

Reconfigurations dans les années 1970-1980

Émergence de duos, de couples d’artistes, de familles et de fratries

Les années 1970 et 1980 voient émerger, ou du moins se démultiplier et s’affirmer, les duos d’artistes : en couple, en fratrie ou de nature amicale, des associations se forment dans un contexte de libéralisation des mœurs en élargissant la notion d’atelier. Dès 1961, Christo et Jeanne-Claude créent leur première œuvre, Dockside Packages, en installant des barils de pétrole dans le port de Cologne, même si, à l’époque, celle-ci reste signée du seul Christo.

On ne peut s’empêcher d’évoquer un précédent historique et emblématique, celui d’Auguste Rodin et Camille Claudel, qui œuvrent ensemble pour la création de Frère et Sœur, signé de Rodin en 1890 dans un contexte de commande qui demeure encore très personnel. Certains couples sont si fusionnels qu’il est impossible de savoir quelle est la part de chacun. Gilbert Proesch et George Passmore (« Gilbert & George »), entretiennent, à dessein, la confusion à cet égard.

Dans cette conception, d’autres collaborations de nature familiale se tissent progressivement : les frères Jake et Dinos Chapman, les frères Erwan et Ronan Bouroullec, les frères Doug et Mike Starn… Quant à Gilbert & George, Pierre et Gilles, Aziz+Cucher, Claes Oldenburg et Coosje Van Bruggen, Bernd et Hilla Becher, Mrzyck et Moriceau, Ilya et Emilia Kabakov, Marina Abramovic et Ulay, Anne et Patrick Poirier, Eva et Adèle, ils forment des associations amoureuses. Fischli et Weiss, Dubossarsky et Vinogradov, Dewar et Gicquel entretiennent des liens d’amitié.

Il est à noter que de nombreuses compagnes d’artistes associées dès les origines au travail artistique n’ont vu leur nom apparaître que très tardivement. C’est le cas de Coosje Van Bruggen, Emilia Kabakov ou Jeanne-Claude, révélant les obstacles d’une société qui peine à accorder une place aux femmes même dans le milieu de l’art.

Jeu avec les ambiguïtés

La collaboration ou l’association de plusieurs auteurs à l’œuvre créent un trouble quant à l’identification des rôles de chacun. Certains cultivent cette ambiguïté comme Gilbert & George qui travaillent tous deux depuis 1967 dans le quartier bangladais de l’East End de Londres dans un studio peuplé d’assistants chinois œuvrant aux scanners et aux ordinateurs.

Depuis 1971, ils collectent des images de presse, classées par thèmes : manifestants, violeurs, attentats, homosexuels, clochards, religion… pour réaliser de grandes compositions photographiques colorées très controversées tels des vitraux contemporains. Même les médiums restent opaques. Ils déclarent : « Il n’y a pas de collaboration, G & G c’est deux personnes et un seul artiste. » Dans leur performance, Living Sculpture, datant de 1969, ils se présentent comme des sculptures vivantes. Dans leur double portrait George by Gilbert & Gilbert by George, la mise en abyme est de mise. Jusqu’à leurs prénoms qui résonnent comme « Dupont et Dupond ». Le travestissement permanent leur permet de jouer un devenir autre dont chacun échange les rôles. Leur homosexualité, leur alcoolisme, leur rencontre à la St Martin’s School lorsqu’ils décident d’utiliser leur propre corps comme matériau les amènent à brouiller les lignes pour mieux les dépasser.

Pratique du « cache-cache » et faux-semblants

F/West l’abréviation des noms de deux artistes Peter Fischli et David Weiss. David, décédé en 2012, était un ancien hippie musicien dans un groupe zurichois underground : Migros. Peter est un ancien punk. Artistes du dérisoire et de l’universel, ils collaborent en 1979 avec une série de saucisses, la Wurstserie, pour détricoter toutes les oppositions traditionnelles travail/loisir, fiction/réalité, kitsch/beauté, banal/sacré… Dans leur production, aucun trait ne peut être attribué à l’un ou à l’autre. Ils déplacent la figure romantique du génie artistique.

Frederiecke van Lawick et Hans Müller, nés en 1958 et 1954, cultivent une identité hybride. Lawick/Müller jouent de l’altérité du couple pour contrarier la notion d’identité, de style ou de facture individuelle. Dans leur autoportrait de la série La Folie à deux, portraits de duos d’artistes, ils opèrent une transformation progressive de leurs portraits respectifs en 16 photographies numériques laissant apparaître un trouble chez le spectateur à la recherche de l’équilibre instable au sein duquel les traits de Frederiecke se fondent dans ceux de Hans comme pour faire apparaître l’image de leur progéniture hypothétique.

« Le fantasme de l’homme nouveau se dresse de nouveau devant nous, généré par les sciences dites de la vie, qui s’articulent dans le discours public autour des possibilités de la biotechnologie et de l’intelligence artificielle. » (in C. Gattioni et Y. Vigouroux, La Photographie contemporaine, 2002).

Par cette phrase, les artistes questionnent la fabrication des nouvelles images, notamment numériques, autant que l’avènement d’un homme nouveau aidé par les progrès scientifiques. Comme si les prospectives virtuelles rejoignaient la réalité de nouvelles créatures telle celle inventée au XIXe siècle par le docteur Frankenstein. Dès leur rencontre, ils prennent pour objet et pour sujet leur propre image jouant des combinatoires proposées par le morphing et font surgir l’homme générique, comme Aziz et Cucher dans leur série intitulée Dystopia de 1994. Disparition des sexes, anonymat, confusion des genres, autant de questions soulevées par ces artistes que notre société actuelle traverse dans le flux du développement de nouveaux modes de vie, de nouvelles compositions familiales, d’enjeux éthiques et sociétaux.

Développement de modalités polymorphes dans le courant des années 1990

Au-delà des entités doubles, se développent les collectifs d’artistes de composition très variée, comme l’explique Béatrice Gross dans sa « Brève histoire du collectif d’artiste(s) depuis 1967 » (Cahiers du Musée d’art moderne, n° 11, 2010). Certains sont de véritables entreprises, structures de production, redéfinissant d’emblée la représentation convenue de l’auteur. La signature commune est l’un des signes du collectif le distinguant de la collaboration en tant que telle qui associe souvent plusieurs compétences distinctes. Perdurent également les ateliers « ruches » tels que ceux de Takashi Murakami, Damien Hirst, Wim Delvoye ou Jeff Koons qui préservent néanmoins la signature du concepteur.

Dès 1995, l’Atelier Van Lieshout fonctionne comme une entreprise composée d’une vingtaine de personnes aux compétences variées : architectes, artistes, ouvriers qualifiés dans les domaines du bois, du métal, de la résine. Leurs productions évoluent aux confins du design, de l’architecture et de l’art contemporain tout en cultivant une bonne dose d’humour.

Et aujourd’hui ?

Le dossier paru dans Art Press 2 consacré à « la création à plusieurs, duos, collectifs et plus si affinités » (n° 40, février, mars-avril 2016) propose un panorama des pratiques actuelles.

Le dossier Edu_ num – Arts plastiques (n° 18, mars 2017) porte sur « Les pratiques interactives : interaction(s), interactivité(s), hybridation(s) : quels enjeux pour l’enseignement des arts plastiques ? » Différentes formes d’interactivité peuvent être interrogées afin de définir les possibles objectifs d’apprentissage des élèves qui en découlent.

L’idée d’interactivité est à saisir selon diverses approches : du point de vue de la pratique artistique et du processus créateur (métissages, hybridations, work in progress, travail en réseau, production collective, etc.), du point de vue de la perception des œuvres et des processus perceptifs (prise à parti du spectateur, participation, action, intégration, etc.).

L’exposition « CO-WORKERS : le réseau comme artiste », au musée d’Art moderne de la ville de Paris, a présenté, en 2015, une sélection d’artistes internationaux formés dans les années 2000 qui renouvellent les processus de création autour d’une pratique essentiellement en réseau. Mise en scène par le collectif new-yorkais DIS et avec la participation curatoriale de 89plus, cette exposition a fait émerger un langage inédit inspiré des ressources d’internet.

L’art, l’artiste, l’œuvre et le processus de création questionnés par les pratiques collectives

Il s’agit dans « le chemin de l’œuvre », un axe du programme de terminale, de comprendre les articulations entre les modalités de création – seul et à plusieurs, dans l’atelier, in situ et dans l’espace public, sur internet – et la nature du processus artistique mis en œuvre – anticipé, préparé, dépendant d’un contexte, spontané, aléatoire, évolutif, in progress. En découlent des définitions possibles et variées de l’acte de création, du rôle de l’artiste, de la place des publics, autant d’articulations, d’emboîtements étroitement liés entre eux.

Le statut de l’auteur, de l’œuvre, de l’art dans les créations à plusieurs

Auteur réel, anonyme ou fictif

Au sein du collectif d’artistes, l’identité peut se révéler individuelle ou plurielle. Bernadette Corporation est l’entité collective de John Kelsey & Emily Sundblad, parfois à géométrie variable. Née dans la mode underground, elle produit des performances, de la littérature, des films. Le collectif peut prendre une identité fictive : Reena Spaulings tire son nom de l’héroïne du roman éponyme. Artiste inventée, elle ouvre en 2004 sa propre galerie, Reena Spaulings Fine Art qui expose les productions collectives ou individuelles des deux membres principaux de Bernadette Corporation.

Le rôle et la figure de l’artiste

Les années 1970 sont également marquées par l’émergence de nouveaux espaces de création plus flexibles et d’interactions entre les domaines et les registres typiques des années libertaires. Dans de nombreux champs de la création, des groupes se créent tels que Ant Farm aux États-Unis, MVRDV (groupe pluridisciplinaire hollandais), Archigram (groupe anglais s’exprimant à travers une revue), Coop Himmelb(l)au (groupe d’architectes autrichiens, mot à mot « coopérative bleue ciel » ou « construction spatiale »…).

La composition d’un collectif peut varier avec le temps : mésentente, séparation, décès d’un de ses membres peuvent affecter l’entité. Par exemple, deux des trois membres du collectif canadien General Idea, Felix Partz et Jorge Zontal, ont disparu en 1994, seul demeure AA Bronson.

Art & Language, fondé en 1967 à Coventry (Royaume-Uni) par Terry Atkinson, David Bainbridge, Michael Baldwin et Harold Hurrell, s’appuie sur Le Journal de l’art conceptuel lancé en mai 1969. En 1971, se greffent au groupe Ian Burn et Mel Ramsden puis Philip Pilkington, David Rushton et Charles Harrison. À partir de 1976, les départs successifs réduisent peu à peu le collectif au binôme Baldwin et Ramsden dont on ne parvient pas à connaître les rôles respectifs. La localisation du groupe n’est pas plus aisée : ALUK (Art & Language United Kingdom), ALNY (Art & Language New York) auquel s’associe Joseph Kosuth ; Oxford, aujourd’hui. Cependant, c’est la première fois qu’une communauté artistique signe sous un label unique mettant ainsi tous les protagonistes sur le même plan d’égalité dans la lignée de l’Internationale situationniste. Usant de langages hybrides et introduisant le texte comme élément plastique, Art & Language participe à la déconsécration de l’artiste comme génie singulier et authentique à travers des pratiques critiques.

La question de l’auteur dans le monde des arts plastiques

Ce point, sous-tendu par les pratiques artistiques à plusieurs, permet aussi d’étayer l’approche de l’entrée du programme portant sur « L’œuvre, filiation, rupture ».

Les collectifs aux prises avec les statuts traditionnels de l’auteur

Code de la propriété intellectuelle, droits d’auteur, droits moraux, droits de représentation ou de présentation publique, droits de diffusion, droits d’exploitation, droits de suite… régissent la protection des artistes et leurs productions. La Société des auteurs des arts visuels et de l’image fixe (SAIF) et la Société des auteurs dans les arts graphiques et plastiques (l’ADAGP) en sont les garants dans le domaine des arts visuels. Mais qu’en est-il lorsque l’œuvre est le fruit d’une collaboration signée par une entité ?

L’article L.121-1 du Code de la propriété intellectuelle affirme que « l’auteur jouit du droit au respect de son nom, de sa qualité de son œuvre. Ce droit est attaché à sa personne. Il est perpétuel, inaliénable et imprescriptible. Il est transmissible à cause de mort aux héritiers de l’auteur ».

On comprend dès lors les difficultés à gérer un patrimoine artistique dont les propres auteurs sont séparés ou disparus. L’exemple récent du couple d’artistes Marina Abramovic (Serbe) et Ulay (Allemand) l’illustre particulièrement. L’artiste a perdu son procès contre son ancien compagnon dont la séparation sur la muraille de Chine fut leur dernière œuvre commune en 1988 :

« Une cour néerlandaise a condamné la reine des duels plastiques à lui payer plus de 250 000 € pour le fruit des ventes non partagées et à faire mention de l’artiste Ulay dans les œuvres communes réalisées entre 1976 et 1988. Très exactement, insiste The Guardian, il devra être fait mention de “Ulay/Abramovic” pour les performances et vidéos communes de la période 1976-1980, puis de “Abramovic/Ulay” pour celles de la période 1981-1988. Marina n’avait pas respecté leur accord établi en 1999 sur le partage des royalties. Ulay a donc demandé le paiement rétroactif de 20 % des ventes réalisées sans tenir compte de ses droits. Il faut savoir, qu’en matière de performance, le “re-enactment” est pratiqué, c’est-à-dire la reconstitution grandeur nature d’événements de la récente histoire de l’art. »

Ces performances rejouées par des jeunes protagonistes posent également la question de l’original dans le domaine de l’acte performatif.

Après avoir tiré son nom d’une marque populaire de cahiers pour écoliers et s’être auto-proclamé art néoconceptuel, Claire Fontaine, collectif fondé en 2004, investit à son tour, dès les années 2000, des questions politiques articulées à la revendication de la perte d’une identité unique qui invitent à de nouvelles approches juridiques du droit d’auteur.

Un levier pour un exercice critique de l’art

« L’anonymat fourni par le groupe déplace la notion de création vers la notion de recherche, proche du collectif scientifique. Art & Language utilise une procédure, l’heuristique (système qui pense ses propres règles), à travers laquelle le langage de l’art est décortiqué, analysé, disséqué, afin de mettre à nu ses intentions obscures et stratégiques. À son tour, l’agence IFP se joue des matériaux hétérogènes, des codes et des représentations qu’elle emprunte au monde du journalisme, des médias et de la publicité et qu’elle déplace à l’intérieur d’un discours et d’une pratique artistique complexes. Le travail d’IFP interroge à la fois le statut de l’œuvre d’art et de son auteur, les outils de sa diffusion, de son échange et de sa réception… Dumb Type (en anglais “imbécile”) regroupe des comédiens graphistes, vidéastes, architectes, danseurs, ingénieurs du son, musiciens, et expose ses œuvres en tous lieux, investissant l’espace par des installations complexes, pour critiquer avec un humour féroce la transformation de notre quotidien par la technologie, remettre en cause la toute-puissance des médias, ou questionner les frontières entre la vie et la mort. Ici la notion de collectif ne supprime pas la notion d’individu créateur mais décuple les énergies. Derrière l’absence des noms propres se profile un manifeste idéologique très précis et pour Dumb Type, la notion d’art total dans son sens ludique et non totalitaire. » (in Patricia Marszal, Des images aujourd’hui, repères pour éduquer à l’image contemporaine, 2011)

Un cadre investi pour une critique sociale par l’art ?

Des collectifs de commissariat voient le jour dans un esprit plus radical voire politique. What, How and for Whom ? (WHW) à l’origine de l’exposition « Collective Creativity : Common Ideas for Life and Politics » affirme : « La créativité collective est non seulement une forme de résistance au système dominant de l’art et à l’appel capitaliste à la spécialisation, mais également une critique productive et performative des institutions sociales et de la politique… » (in Art Press 2, n° 40, février 2016)

La contestation d’un système culturel conventionnel conduit certains collectifs à court-circuiter galeries, musées, fondations, quitte à questionner les canaux de production, de monstration et de diffusion. C’est le cas de Présence Panchounette qui dresse son bilan d’activités en 1990 après vingt-deux années de collaboration. Cultivant la provocation et la subversion, voire l’humour potache d’un Alfred Jarry prenant le contre-pied des valeurs prônées par les institutions culturelles, le groupe bordelais refuse l’invitation du CAPC de Bordeaux (musée d’Art contemporain) en 2008 pour occuper divers espaces de la ville échappant ainsi à la rétrospective commémorative.

Il arrive que certains collectifs naissent des contraintes sociales ou géopolitiques : des groupes issus de l’ex-bloc communiste adoptent des stratégies de confusion des identités artistiques et des activités imitant le champ de production artisanal des charpentiers comme le groupe cubain Los Carpinteros.

L’Atlas Group, fondé en 1999, poursuit une démarche conceptuelle en archivant des traces de la guerre du Liban entre 1975 et 1991 et en les publiant sur internet entre 1989 et 2004. La genèse auctoriale devient d’emblée source d’interrogations et de déplacement des représentations.

Le groupe UNTEL
La Boîte UNTEL, à la fois édition (multiple) et exposition en kit, permet de plonger au cœur de l’œuvre d’UNTEL (Jean-Paul Albinet, Philippe Cazal et Alain Snyers), actif entre 1975 et 1980. En proposant des actions qui interrogent la poésie invisible de la vie quotidienne en milieu urbain avec humour et esprit critique, UNTEL utilise les modes d’expression qui entourent le public et qui influent sur son comportement. L’œuvre se place à l’intérieur du champ social, politique et économique et prend naissance sur le pavé parmi la foule qui se questionne. Leur projet s’accompagne très tôt d’une volonté de faire l’état des lieux et d’archiver avec précision chaque expérience pratiquée. Ils utilisent tous supports et modes d’expression accessibles : photographies, sérigraphies, textes, films, enregistrements sonores, environnements, gestes, actions corporelles, objets fabriqués, etc. L’ensemble de ces archives a permis la conception et la réalisation de cette boîte. Cet exercice critique de l’art s’accompagne d’actions sociales, de tracts, d’activisme. Le dossier pédagogique de cette pièce conservée au MUba de Tourcoing permet d’en comprendre les enjeux.

La vie plutôt que l’art, le collectif comme base possible d’un rituel

Dans le sillage des Actionnistes viennois et grâce à la figure d’Otto Muehl, ArtLife constitue un collectif désireux de poursuivre la démarche communautaire, libertaire, expressive de son mentor. Danièle Rousselen fait le récit dans un article extrait du n° 40 d’ArtPress 2 : « La vie devait devenir l’œuvre d’art à créer affirmant le caractère dionysiaque d’être au monde : performer, danser, peindre, jouer de la musique, converser… Par la thérapie pratiquée par Otto Muehl, la Selbstdarstellung ou représentation de soi, la création de tous les arts favorise l’expression libre de chaque individu ».

 Onze communards – c’est ainsi que se nomment les membres d’ArtLife – continuent aujourd’hui de développer des espaces de création littéraires, musicaux, théâtraux en vivant une expérience communautaire dans un refus du consumérisme et des valeurs actuelles sociales, économiques et artistiques du monde.

Logos, sociétés, entreprises : certaines formes d’art à plusieurs interrogent des modèles traditionnels ou économiques

Cette approche permet, sur des enjeux éthiques, politiques, économiques, de travailler plus globalement l’entrée du programme portant sur « L’œuvre et le monde ».

Jérôme Sans observe « la défaite du je » à travers les tentatives de groupes œuvrant au sein de collectifs, dans la lignée des artistes rassemblés autour de revues comme les avant-gardes du début du XXe siècle. Si la perte récurrente de la notion d’auteur unique habite ces démarches, il y décèle l’adaptation des artistes à un monde post-moderne qui appelle paradoxalement au culte de l’individu et à son pendant, le besoin prégnant d’appartenir à des groupes, même temporairement. Les réseaux sociaux actuels montrent cette nécessité qui oscille entre la sphère privée et la sphère publique. Ainsi certains collectifs prennent des noms de personnes morales et non physiques. C’est le cas de ABR Stuttgart (formé en 1984 à Stuggart par René Straub, Gerrit Hoogerbeets et Harry Walter), Art in Ruins (formé en 1984 à Londres par Glyn Banks et Hannah Vowles), BP (fondé en 1984 par Richard Bellon, Renaud Layrac et Frederik Pohl), General Idea (formé en 1984 à New York et Toronto par AA Bronson, Felix Partz et Jorge Zontal), Group Material (formé en 1979 à New York par Douglas Ashford, Julie Ault et Félix Gonzales-Torres), Information Fiction Publicité (IFP, formé en 1984 à Paris par Jean-François Brun et Dominique Pasqualini), Stille Helden e.V (formé en 1982 à Hambourg par Ute Meta Bauer et Suzanne Homann).

« Ce n’est plus exclusivement l’image de l’artiste producteur d’objet d’art, mais celle aussi d’un bureau de réflexion, qui peut intervenir à tous les niveaux de cette société du spectacle qu’est devenu le monde actuel et dans laquelle chacun joue un rôle en fonction d’un modèle social attribué… Leur nom apparaissant comme un emblème ou un signe, joue de cette nouvelle spécificité : le nom enseigne produisant du sens, se suffit à la limite à lui-même et peut être avancé comme œuvre. » (in Jérôme Sans, Des emblèmes comme attitudes, 1988).

Une absence de hiérarchisation entre les genres et les médiums

La multidisciplinarité : une des clés de voûte des créations à plusieurs

Une tradition multidisciplinaire se prolonge aujourd’hui, dans la lignée des expériences du Bauhaus, qui réunit des collaborations entre artistes issus de domaines différents : danse, son, spectacle vivant, cinéma, vidéo… nourrissant les formes de théâtre post-dramatique actuelles.

Dans l’héritage de Fluxus et par l’usage de la performance de plus en plus présente dans le spectacle vivant, le Wooster Group naît à New York. Le Grand Magasin, compagnie fondée dans la banlieue parisienne en 1982 par Pascale Murtin et François Hiffler, rejoints par Bettina Atala, s’inspire du cinéma, de la performance, des mondes numériques. Des formations musicales mêlent également les genres. Des chorégraphes et des plasticiens collaborent aussi ponctuellement. C’est le cas de Josef Nadj et de Miquel Barceló pour Paso Doble, vidéo performance d’un spectacle joué à l’occasion de la soixantième édition du Festival d’Avignon en 2006 rappelant les actions du groupe Gutaï dans le Japon des années 1950 (ex. : Lutte dans la boue de Kazuo Shiraga, 1955).

Rassembler des compétences issues de domaines divers au service d’un projet commun

Cette approche permet également de travailler l’entrée de programme dédiée à « L’espace du sensible », notamment en ce qui concerne les conditions de perception du regard du spectateur.

L’exemple des collectifs d’artistes plasticiens et de théâtre

Giovanni Lista recense, dans son ouvrage anthologique La Scène moderne (1997), les expériences de théâtre d’artiste dont le concept prend naissance avec L’Arte Povera. Il y décrit comment des pratiques aussi variées que celles de Daniel Buren, Jean Dubuffet, Gérard Garouste, Jean-Paul Chambas, Arman, Bernar Venet, Jacques Monory, Ilya et Emilia Kabakov ou Jan Fabre se sont frottées à l’expérience du théâtre vivant.

Il y distingue deux démarches : celles des peintres ou des sculpteurs qui sont associés à un metteur en scène pour concevoir la scénographie et celles des artistes qui assument la paternité totale de l’œuvre représentée. On connaît les participations des artistes du début du XXe siècle à la scène théâtrale ou de ballet : Picasso, Dalí, les soirées futuristes… Cette forme d’expression émerge à un moment où le happening et la performance tendent à s’essouffler. Des artistes plasticiens se livrent alors à des expériences de nature théâtrale qui nécessitent la collaboration avec d’autres créateurs chorégraphes, compositeurs, écrivains. Assumant parfois toutes les responsabilités d’auteurs comme Jan Fabre mais souvent à la recherche de nouvelles aventures créatrices dépassant le champ de leur vocabulaire artistique, ils élargissent la définition de l’œuvre en expérimentant les notions d’espace, de temporalité, de mobilité, d’actions à vivre dans un instant donné propre au théâtre, d’interaction avec les spectateurs, d’accident possible…

La situation du théâtre d’artiste

Si de nombreux artistes de l’après-Seconde Guerre mondiale se pensent aussi comme scénographes, auteurs de l’argument, compositeurs de la musique de spectacles comme Jean Cocteau ou Józef Szajna, il s’agit d’envisager ici la question de la contribution des plasticiens à des œuvres collectives, comme y invite le thème limitatif du baccalauréat. Le recours de certains artistes appartenant à un domaine circonscrit à d’autres acteurs de champs connexes ou éloignés contribue à proposer de nouvelles formes enrichies par les échanges produits par les rencontres.

Durant les années 1960, le théâtre d’artiste tend à supplanter la performance ou le happening avec Tadeusz Kantor en Pologne ou Studio Scarabee ouvert en 1965 par Adri Boon à Amsterdam. Ce dernier propose des œuvres collectives composées de tableaux vivants, de techniques multimédias ou d’éléments purement plastiques. En Italie, Michelangelo Pistoletto fonde, en 1968, le théâtre Zoo. BMPT, composé de Daniel Buren, Olivier Mosset, Michel Parmentier et Niele Toroni, se livre à une théâtralisation de la peinture à travers des actions présentées face au public de réalisation de peinture en direct ou de peintures déjà réalisées à contempler le plus longtemps possible (action in situ au musée décoratif de Paris en 1967). Jannis Kounellis réalise avec Carlo Quartucci et Roberto Lerici la scène de Funerale en 1982.

Arman compose pour Désordres lyriques en 1988, sur une musique de George Aperghis, un assemblage où se répondent fragments d’objets sur scène et fragments d’opéras, mise en perspective de médiums en écho.

Bernar Venet déclare au sujet de Relativity’s Track (New York, 1968) : « L’un des buts recherchés était de changer de manière radicale tout ce qui constitue une pièce de théâtre ordinaire. Pour refuser le travail habituel des acteurs, les artifices d’un texte appris, d’une gestuelle exagérée et d’une mise en scène imposée, je proposai des personnages réels. Un scientifique de Colombia University, Martin Kieger donnait une conférence intitulée “Neutron Emission from Muon Capture in 40”, avec projection de diapositives sur un sujet de physique nucléaire. » Il s’agit ici de renouveler les codes et les langages dans la tradition du Judson Dance Theater en faisant se rencontrer des univers opposés scientifiques et poétiques.

Gérard Monory, après des performances avec Jean Dupuy, conçoit l’argument et la mise en scène de Cinq rouge perd et passe, un supplément pour Rodchenko en 1989 : composition cinétique articulée à la musique de Gilles Grand et une chorégraphie par Florence Lambert.

Jean-Michel Othoniel participe, en 1992, à la création du ballet Rideaux de Daniel Larrieu pour voir « comment un plasticien réagit à la matière du vivant ». Il propose des robes de cire suspendues qui dialoguent avec les danseurs sur le plateau.

Après le rejet de toutes les règles formelles lié aux avant-gardes, à la recherche d’un nouveau souffle, le théâtre d’artiste s’affranchit de la prégnance du texte pour prétendre « à une totalisation des genres qui s’impose dans l’art à partir de la mort du tableau » (in G. Lista, La Scène moderne, 1997).

Paso Doble, une expérience significative entre un chorégraphe et un artiste plasticien
Paso Doble, en français « pas redoublé », le projet de Miquel Barceló, peintre espagnol majorquain et de Josef Nadj, chorégraphe français d’origine yougoslave, naît d’un travail de Barceló pour lequel il introduit son corps à l’intérieur de grands vases d’argile afin d’agir sur la surface. Il s’agit ici de tracer, pétrir, modeler, frapper un grand mur de glaise fraîche sur scène par ses deux faces. L’artiste s’y introduit ensuite, dans une cérémonie éphémère quasi rituelle et évoluant à chaque représentation. Barceló décrit sa collaboration avec Nadj : « Quand je restais à l’extérieur cela devenait gratuit… Josef Nadj est chorégraphe, il agit comme un métronome, ce qui me permet d’improviser à chaque fois. » (in Paul Ardenne et Miquel Barceló, « À propos de Paso Doble, présentation et extraits de la vidéo-performance », 2009)
Le duo peintre/chorégraphe s’est formé dans la nécessité de vivre une expérience physique énergique de quarante minutes dénuée de toute narration ou d’aspect décoratif. Les protagonistes usent de massues, d’outils venant d’Afrique pour triturer la matière. La résistance de la glaise participe à cette expérience cathartique.

Conclusion

Les pratiques de collaboration ou de co-création entre artistes participent à l’évolution des formes artistiques qui interrogent désormais tous les champs d’activités humaines empruntant à tous les registres de production ou de pensée. Si la représentation classique de l’artiste – auteur d’une œuvre pérenne, tangible, échangeable ayant une valeur marchande – tend à se déliter, c’est peut-être pour mieux inscrire l’acte artistique dans le champ social, brouillant toutes les pistes convenues d’une culture savante patrimoniale, accordant à l’acte de création une véritable dimension critique du monde contemporain.

Désormais, la collaboration s’ouvre à une dimension élargie, celle du public même qui participe à l’élaboration de l’œuvre variable, combinatoire, véritable work in progress. En plus du développement de cet art participatif, d’autres axes sont à investiguer :

  • l’émergence de nouvelles pratiques « à plusieurs » liées au numérique (technologies, processus, concepts). On constate en effet la constitution de collectifs de création numérique (plus ou moins pérennes et pouvant varier au gré des projets) ;
  • les contextes particuliers de certaines œuvres collaboratives, tel celui de l’espace public ou, plus largement, celui de la mondialisation qui suscite des réflexions collectives fructueuses ;
  • les pratiques singulières développées dans le cadre d’œuvres collaboratives ou coopératives : pratiques de la conversation, de la conférence-performance, etc.
    Autant de singularités du travail à plusieurs qui ont renouvelé en profondeur les processus de création et les œuvres elles-mêmes depuis des années 1960, et dont le caractère expérimental n’est aujourd’hui pas encore épuisé.

Bibliographie

Ouvrages

  • Augé Marc et Sausset Damien, Anne et Patrick Poirier : vertiges/vestiges, catalogue de l’œuvre, Paris, Gallimard, 2009.
  • Bernadette Corporation, Reena Spaulings, Semiotext(e), 2005.
  • Chambarlhac Vincent, Lavin Amélie et Tillier Bertrand (coord.), Les Malassis : une coopérative de peintres toxiques (1968-1981), Montreuil, L’échappée, 2014.
  • Devis Chloé, Derrière l’objectif de Pierre et Gilles : photos et propos, Paris, Hoëbeke, 2013.
  • Filliou Robert, L’Art c’est ce qui rend la vie plus intéressante que l’art, textes de Robert Filliou, Jacques Donguy, Richard Martel, entretien de Robert Filliou avec Chantal Gaudreault, Dijon, Les Presses du réel, 2003.
  • Fischli Peter, Weiss David, Sichtbare Welt, Cologne, Walter König, 1999.
  • Fleck Robert, Soentgen Beate, Danto Arthur, Peter Fischli, David Weiss, Londres, Phaïdon, 2005.
  • Gattinoni C. et Vigouroux Y., La Photographie contemporaine, Paris, Scala, 2002.
  • Goldberg Roselee, La Performance : du futurisme à nos jours, Londres, Thames & Hudson, 2000.
  • Goudinoux Véronique, Œuvrer à plusieurs : regroupements et collaborations entre artistes, Villeneuve d’Ascq, Presses universitaires du Septentrion, 2015.
  • Labelle-Rojoux Arnaud, L’Acte pour l’art, Paris, Éditeurs évidant, 1988.
  • L’Art au pluriel : regards sur quelques pratiques artistiques collectives au XXe siècle, 2 tomes, département arts plastiques, université Lille III, 2000.
  • Lehmann Hans-Thies, Le Théâtre postdramatique, Paris, L’Arche éditeur, 2002.
  • Lista Giovanni, La Scène moderne, chap. « Le théâtre d’artiste », Paris, Carré, 1997.
  • Marszal Patricia, Des images aujourd’hui : repères pour éduquer à l’image contemporaine, Chasseneuil-du-Poitou, Réseau Canopé, 2011.
  • Muehl Otto, Sortir du bourbier, Dijon, Les Presses du réel, 2001.
  • Peter Fischli, David Weiss, Paris, Centre Pompidou, 1992, coll. « Galeries contemporaines ».
  • Poinsot Jean-Marc, Supports surfaces, Paris, Limage 2, 1983.
  • Shelley Mary W., Frankenstein ou le Prométhée moderne, Paris, Le livre de poche, 2009.
  • Sans Jean, Des emblèmes comme attitudes, ERSEP, Tourcoing, éd. Labo-Selec-Tourcoing, 1988.
    Articles/Revues
  • Baqué Dominique, « Identités en question », Art Press, n° 221, février 1997.
  • « Buy Self », Beaux Arts Magazine, n° 311, mai 2010.
  • Duponchelle Valérie, « Marina Abramovic perd son procès contre Ulay, son ex-compagnon », Le Figaro, 29 septembre 2016.
  • Gross Béatrice, « Brève histoire du collectif d’artistes, depuis 1967 », Cahiers du musée national d’Art moderne, n° 111, printemps 2010.
  • Gross Béatrice, « Le collectif, artiste contemporain », Art Press 2, n° 40, février 2016.
  • « La création à deux », Beaux Arts Magazine, n° 272, février 2007.
  • « La création à plusieurs », Art Press 2, n° 40, février 2016.
  • « Œuvres à plusieurs », Plastik, n° 4, automne 2004.
  • « Qu’est-ce que la performance ? », dossier pédagogique, Centre Pompidou, février 2011.
  • « Performance, art et anthropologie », actes du colloque du musée du quai Branly, 2009.
  • « Rétrospective General Idea à Paris », Beaux Arts Magazine, n° 320, février 2011.
  • Sculpture magazine, vol. 18, n° 10, décembre 1999.
  • « Rétrospective à New York : Fischli & Weiss, artistes des petits riens et du grand tout », Beaux Arts Magazine, n° 380, février 2016.
    Catalogues
  • The World of Gilbert & George, catalogue de la rétrospective à la Tate modern, Londres, Tate Publishing, 2007.
  • Présence Panchounette, catalogue de la rétrospective au musée d’Art contemporain de Bordeaux, Dijon, Les Presses du réel, 2011.
  • Dans le catalogue « rose » 2001-2010, éd. Frac Nord – Pas-de-Calais, 2011 :
    – François Curlet & Michel François (p. 44)
    – General Idea (p. 64 et p. 230)
    – Superflex (p. 146)
    – Mika Tajima & the New Humans (p. 148)
    – Atelier Van Lieshout (p. 179)
  • Dans le catalogue « bleu » 1991-2000, éd. Frac Nord – Pas-de-Calais, 2009 : Dejanov et Heger (p. 30, œuvre actuellement visible dans l’espace Forum du Frac).
  • Dans le catalogue « vert » 1983-1990, éd. Frac Nord – Pas-de-Calais, 2008 : Présence Panchounette (p. 96).
    Sitographie sélective
  • Co-conception : manière de concevoir en s’appuyant sur la contribution de plusieurs personnes toutes impliquées à des degrés divers dans le processus d’innovation, utilisée notamment dans le co-design.
  • Co-construction : implication d’une pluralité d’acteurs dans l’élaboration et la mise en œuvre d’un projet ou d’une action avec l’idée d’interactivité, il existe une variété des usages, car le terme est mobilisé dans des contextes diversifiés.
  • Co-création : les pratiques de co-création se distinguent des pratiques de type participatif (participation du spectateur) au sens où elles réunissent plusieurs artistes (appartenant ou non à la même discipline) pour créer une œuvre commune, ou bien au sens où un artiste conduit avec d’autres (pouvant ne pas être des artistes) un projet artistique. Dans une pratique de type participative, le spectateur intervient dans un cadre préalablement défini par l’artiste sans pouvoir le modifier. À l’inverse, travailler en co-création repose sur un « partage [de] la responsabilité du développement de la structure et du contenu de l’œuvre en collaboration et dans un dialogue direct avec l’artiste » (Pablo Helguera, Education for Socially Engaged Art, Jorge Pinto Books, 2011).
  • Collaboration : étymologiquement, le mot vient du latin co (« avec ») et laborare (« travailler »). Il désigne un processus par lequel deux ou plusieurs personnes ou organisations s’associent pour élaborer une œuvre commune (du dessin à la performance) ou un projet artistique commun (revue, exposition, etc.) suivant des objectifs partagés. Les collaborations peuvent s’effectuer dans des temps synchrones ou non et depuis plusieurs lieux (voir, par exemple, les pratiques en réseau). Aujourd’hui, certains artistes préfèrent à ce terme celui de « co-création » ou encore celui de « coopération », qui leur paraît mieux mettre en évidence la réalisation d’une œuvre commune, le terme latin opere renvoyant à opus, « œuvre ».
  • Collectif : les associations d’artistes, au sens moderne du terme, existent depuis le début du XIXe siècle sous des formes diverses correspondant à des enjeux variés (confréries, villages et colonies, sociétés d’artistes, communautés, clubs, écoles, groupes, mouvements, etc.). L’usage du terme « collectif » (dans le sens « un collectif d’artistes ») se répand à la fin du XXe siècle pour désigner des regroupements d’artistes aux objectifs eux aussi divers mais dont le point commun pourrait être d’affirmer la force de l’action et du projet collectifs avant la singularité des membres le constituant. Exceptionnellement, un artiste travaillant seul peut se désigner comme un collectif au sens où il se donne pour objectif d’affirmer une position artistique indépendante de l’individu qui le compose. Les collectifs peuvent avoir des pratiques et des objectifs variés : créer des œuvres ou des événements à plusieurs, exposer ensemble, partager les frais de monstration, partager des espaces, des positions idéologiques, politiques et/ou esthétiques, etc.
  • Interdisciplinarité : interaction entre plusieurs spécialistes et entre plusieurs disciplines pour travailler un domaine de la connaissance, un fait, un savoir complexe qui – a priori – ne peut être circonscrit à un seul domaine ou un seul champ du savoir scolaire. Dialogue et échange de connaissances, d’analyses, de méthodes entre deux ou plusieurs disciplines. La démarche implique une coopération entre spécialistes dans des temps partagés. L’interdisciplinarité est sans doute à saisir comme évolutive et intégrative. Elle peut se concevoir comme une méthode d’enseignement. Dans ce cas, les objets d’étude et les contenus sont pensés comme globaux : un problème, une question, une problématique sont présentés sous divers angles d’approches portés par plusieurs disciplines.
  • Pluridisciplinarité : rencontre autour d’un thème ou d’une question mis en partage, associant les spécificités de concepts, de savoirs et de méthodes de chacune des disciplines associées. Addition de connaissances et de compétences disciplinaires pour résoudre un problème. La démarche peut associer différents domaines tout en laissant le travail isolé possible pour chaque domaine associé.
  • Transdisciplinarité : dépassement d’un objet d’étude ou d’un champ du savoir au-delà de ses conceptions dans une discipline ou un groupe de disciplines. Par essence, la transdisciplinarité s’oppose à la division des savoirs et des problèmes en disciplines isolées. Une démarche transdisciplinaire construit ses contenus, définit ses méthodes, à partir d’une question explicite ou d’un objet d’étude réel.
    Abonnez-vous à la newsletter Réseau Canopé - Je m’abonne à la newsletter {{}}

Vous recevrez les actualités de votre Atelier Canopé (animations, formations...) et des sélections de ressources pour vous accompagner dans vos pratiques pédagogiques.

Ministère de l’Éducation nationale et de la jeunesse

Source : https://www.reseau-canope.fr/outils-bacs/collaboration-et-co-creation-entre-artistes-duo-groupes-collectifs-en-arts-plastiques-du-debut-des-annees-1960-a-nos-jours

Retour au sommaire

7bis.
Comment l’IA devient-elle un artiste ? - Document ‘inprincipio.xyz’

L’Intelligence Artificielle se déploie dans l’art pour se mesurer aux plus grands artistes du monde. Cet usage s’accroît aujourd’hui dans ce domaine et permet de réaliser des œuvres inédites. Composer de la musique avec des sons mélodieux et des rythmes originaux, dessiner de somptueux tableaux, imaginer des histoires alléchantes et déroutantes seront bientôt autant d’exploits à l’actif de l’Intelligence Artificielle car le progrès est à cet égard en marche.

Modèle génératif et création artistique de l’IA

Qu’est ce qu’un modèle génératif ?

Le mot provient du latin « Generativus » qui signifie « qui produit », « qui engendre ». Le Modèle Génératif est donc par définition Créatif donc artistique. En d’autres termes, l’intelligence artificielle serait en mesure de créer, comme l’homme mais cette fois à partir d’algorithmes donc numériquement.

Ces œuvres sont créées pour ainsi dire ex-nihilo sans être induites ou déterminées à l’avance quoi qu’inspirées par des exemples (comme pour les êtres humains…).

Elles sont donc potentiellement aussi bien chorégraphiques que littéraires, musicales, ou graphiques.

Les modèles génératifs ont de nombreuses applications à court terme. Mais à long terme, ils peuvent apprendre automatiquement les caractéristiques naturelles d’un ensemble de données, que ce soit des catégories, des dimensions ou autre.

Autrement dit, un système intelligent est capable de produire une création en s’inspirant des caractéristiques clefs dont on l’aura nourri : j’apprends la musique à une machine dans le style de Beethoven et elle saura en extraire les caractéristiques pour écrire de la musique comme Beethoven… Illustration.

L’art génératif

L’art génératif est une création numérique qui s’appuie sur des algorithmes pour produire des œuvres artistiques qui s’auto-génèrent ou qui sont non définies à l’avance.

Un algorithme graphique peut par exemple générer des œuvres presque comparables à celles de Picasso ou Léonard de Vinci. La machine est capable d’apprendre le style d’un artiste en analysant ses œuvres grâce au deep learning.

La seule limite est celle du volume d’exemples dont on peut nourrir en entrée la machine mais elle va tout de même apprendre en en extrayant les principales caractéristiques. Illustration.

Des programmes d’IA dans l’Art

Orb Composer de Hexachords

Hexachords, la startup de Toulouse spécialisée dans l’intelligence artificielle pour la musique, a lancé Orb Composer, un système expert pour assister les compositeurs de musique dans leur création. Sa technologie est conçue avec de la musique orchestrale et compose des morceaux à partir des propriétés de 1 000 instruments/articulations.

On va donc bien plus loin ici que le système d’arrangeur automatique qui existe depuis près de 20 ans : la machine n’orchestre plus seulement en fonction de l’harmonie définie par le compositeur, elle co-compose elle-même. Illustration.

Daddy’s Car de Flow machine – Voir la vidéo à partir de la source

Flow Machines conçoit des algorithmes de pointe pour explorer de nouvelles méthodes pour produire de la musique. L’entreprise recherche et développe des systèmes d’Intelligence Artificielle capables de générer de la musique de façon autonome ou en collaboration avec des artistes.

Sa technologie peut transformer un ou de nombreux styles musicaux en un objet de calcul. Après ses recherches, la société a pu créer la première chanson pop d’IA structurée baptisée Daddy’s Car.

Pour ce faire, la machine a digéré des tonnes d’exemples de musique avec un focus tout particulier sur la musique des Beatles. Le titre ressemble au final à s’y méprendre à une chanson écrite par John Lennon et Paul Mc Cartney quoi que chantée par un véritable humain au final.

Google deepdream Illustration

DeepDream est un programme d’intelligence artificielle et de vision par ordinateur créé par Google. Cette technologie utilise un réseau neuronal convolutif pour trouver et renforcer des structures dans des images. Les paréidolies créées par l’algorithme leur donnent une apparence hallucinogène.

Le réseau de neurones artificiels a été entraîné à reconnaître des formes sur des images. La machine peut apprendre à les classifier à partir des millions d’images que les chercheurs y ont fait entrer puis à les injecter dans des créations fantasmagoriques.

L’ordinateur s’amuse, comme un humain, à repérer une forme d’animal dans la forme d’un nuage. Si la machine voit une forme ressemblant à un escargot dans les feuillages d’un arbre, il va modifier l’image de base pour y insérer un escargot.

Decibel Illustration

Decibel Music Systems, aujourd’hui appelée Quantone, est une société de logiciels de musique intelligence qui propose aux développeurs et aux entreprises de médias des métadonnées riches de la musique.

Elle utilise une technologie qui collecte et stocke des données connectées sur les artistes et leurs œuvres, ainsi que sur les relations qui lient les artistes. Les informations compilées portent également sur les producteurs, les ingénieurs, les musiciens de session, le droit d’auteur et d’autres données. En 2015, la société a annoncé une collaboration avec Watson, la plateforme d’informatique cognitive d’IBM.

Musicgeek

MusicGeek est une solution unique développée en partenariat avec IBM Watson, capable de combiner l’opinion d’experts avec des métadonnées de profondeur grâce à l’utilisation de l’informatique cognitive.

Niland Illustration

Niland est une Start up qui développe des technologies basées sur le machine learning pour les musiciens et entreprises du secteur de la musique. Elle conçoit des applications d’IA capables de comprendre la musique.

Ses algorithmes analysent le contenu audio, apprennent et se renforcent. Ils extraient des informations significatives des pistes pour les transformer en données décisionnelles. Ils peuvent également capturer automatiquement les caractéristiques musicales et émotionnelles directement à partir du signal audio.

D’autres articles sur le même thème qui vont vous intéresser

L’IA et le traitement d’images et de vidéos - Le traitement de l’image et de la vidéo est un des principaux usages de l’IA.

L’IA et les applications liées au langage - Le traitement du langage est un domaine de l’IA qui regroupe les programmes de reconnaissance vocale ou de la parole

L’analyse prédictive - Le terme d’analyse prédictive (ou encore logique prédictive) un des usages de l’IA faisant appel à des technologies

L’IA et les jeux - Les chercheurs se sont très vite intéressés à l’usage des techniques de l’Intelligence Artificielle dans la programmation

L’automatisation et l’IA - L’usage de l’intelligence artificielle (IA) ne concerne pas uniquement les activités quotidiennes et l’expérience utilisateur final des nouvelles technologies.

La robotique humanoïde –t L’Intelligence Artificielle s’adapte à tous les domaines.L’IA se déploie dans presque tous les secteurs d’activité.

L’IA et les biotechnologies - L’usage de l’Intelligence Artificielle dans le domaine de la santé est en forte croissance.

La simulation des systèmes complexes - La simulation d’un système complexe permet de reproduire et d’observer des phénomènes complexes (biologiques, sociaux et autres) pour les comprendre et anticiper leur évolution.

Pour plus d’information, n’hésitez pas à nous contacter > Nous contacter - Intelligence Artificielle pour les débutants avec inprincipio.xyz https://www.inprincipio.xyz

A propos d’In Principio - Société privée créée en mars 2017 par le Docteur Gilles Dumont d’Ayot et Alexandre Barillet, In Principio concrétise près de 17 années de travail de recherche ayant trait aux multiples disciplines constitutives de l’IA. Via ce site, In Principio participe à sa mesure à la démocratisation des technologies d’Intelligence Artificielle et à ses applications business concrètes mais vise surtout à terme à devenir la première entreprise parvenant à créer une véritable intelligence de synthèse en modélisant le système cognitif du cerveau humain.

In Principio est un laboratoire de recherche fondamentale en Compréhension du Langage Naturel (CLN). Sa mission : « Grow the most intelligent machine ever » - Nos laboratoires sont basés en Ile de France et en Haute-Savoie et travaillent au quotidien à la création d’une architecture d’IA révolutionnaire et Made in France.

In Principio allie en son sein un très haut niveau de technicité et une approche business obsessionnelle. Cet ADN lui vient des profils extrêmement complémentaires de ses deux associés fondateurs passionnés d’IA : 

  • Gilles Dumont d’Ayot, consultant en Intelligence Artificielle, ingénieur et Docteur en IA (Institut National des Sciences Appliquées de Toulouse)
  • Alexandre Barillet, diplômé de l’Ecole Supérieure de Commerce de Paris, Directeur du Business Développement au sein du groupe Casino puis Carrefour, speaker vulgarisateur en Intelligence Artificielle
    In Principio a fait sciemment le choix déterminant de ne pas développer sa technologie sur les bases du très à la mode machine-learning considérant que, quoi que révolutionnaire dans la reconnaissance d’images, ce procédé ne saurait s’appliquer parfaitement à la modélisation de la pensée humaine.

Non, In Principio a au contraire fait le choix ambitieux du développement ex-nihilo d’une technologie 100% nouvelle mariant l’ensemble des connaissances en matière de sciences cognitives et de traitement du langage naturel : représentation et structuration des connaissances, modélisation des raisonnements, linguistique, réseaux de concepts, apprentissage, algorithmes, etc…afin que notre machine soit à même de comprendre et de développer à terme des mécanismes de véritable pensée, loin des boîtes noires traditionnelles de la statistique.

In Principio, dont la mission est de tenter de modéliser l’intelligence première et profonde, signifie en latin « au commencement » en référence au Prologue de l’Evangile selon Saint Jean (1:1)

« Au commencement était le Verbe, et le Verbe était en Dieu, et le Verbe était Dieu.
Il était au commencement en Dieu. Tout par lui a été fait, et sans lui n’a été fait rien de ce qui existe. En lui était la vie, et la vie était la lumière des hommes, etc… », qui est une traduction du grec « en archè èn o logos, kai o logos èn pros ton théon, kai théos èn o logos » où il est fait référence au « logos » : parole, discours, raison, relation, ces quatre mots formant les 4 principes de la technologie que bâtit In Principio.

Advisory Board : In principio est fière de présenter les membres de son Advisory Board qui accompagnent sa croissance :

Mathieu Valette : Professeur de sciences du langage, spécialiste en sémantique pour le traitement automatique des langues et ingénierie multilingue, Mathieu Valette compte plus d’une soixantaine de publications à son actif. Directeur de l’Équipe de Recherche Textes, Informatique, Multilinguisme de l’Inalco, il est membre du conseil de l’Ecole Doctorale n°265 « Langue, littératures et sociétés ». Mathieu Valette est également président de la section Sciences du Langage du Conseil National des Universités (CNU) et Responsable scientifique de la plateforme numérique MultiTAL.

Marc Smia : Senior Vice Président et co-fondateur du cabinet de conseil Kea & Partners, reconnu 3e meilleur cabinet de France dans la transformation et conduite du changement des entreprises devant Deloitte, PWC, McKinsey, BCG, Bain, etc (cf Capital). Marc Smia est consultant en management et stratégie, conférencier, il a co-fondé l’institut de la Sociodynamique et est l’auteur de différents ouvrages sur la discipline (L’Elan Sociodynamique, Le Manager joueur de Go).

Florent Steck - Associé, Deal Advisory, Transaction Services de KPMG, Florent Steck est spécialisé dans les transactions pour les fonds d’investissement Large Cap et les fonds immobiliers. Il a travaillé sur plus de 500 transactions à l’achat ou à la vente, en France et dans plus de 40 pays étrangers. Dans le cadre de ses missions Private Equity Large Cap, Florent intervient dans une grande diversité de secteurs. Il est également en charge de la couverture des secteurs Real Estate et Aerospace & Defense. Il bénéficie par ailleurs d’une large expérience dans les business model technologiques.

Emmanuel de Villeneuve Esclapon - Emmanuel de Villeneuve Esclapon est associé chez EY Paris où il applique aux business plans, études de faisabilité et projets de transaction – et plus généralement à toutes les décisions d’investissement en capital – les techniques de Decision-Modelling, Economics & Analytics. Passionné de technologie, à l’esprit intrapreneurial particulièrement développé, il aime à promouvoir de nouvelles idées, de nouveaux services, et accompagne les entrepreneurs dans leur périple au sein du monde de la finance.

Copyright © 2018 - InPrincipio.xyz | Suivez-nous sur Twitter |Mentions légales – Source : https://www.inprincipio.xyz/artiste/

Retour au début du sommaire

7ter.
Une IA uniquement génératrice de photos : ‘Archillect’, l’élégance de l’algorithme Par Martino Pietropoli - Follow - Oct 20, 2016 – Traduction Jacques Hallard. Référence : Archillect, the elegance of the algorithm - One of the best curators in the world is not actually a human being.

L’un des meilleurs conservateurs ou curators (a curator is a person in charge of a department of a museum or other place where objects of art, science, or from the past are collected, or a person who organizes and arranges a showing of art or other objects of interest…), au monde n’est pas réellement un être humain ! J’ai commencé à suivre le compte twitter d’Archillect il y a quelques mois. Je pensais que c’était un compte d’architecture à cause de son nom.

Le compte d’Archillect sur Twitter est très bien défini :
1. Il ne publie que des photos
2. Pas de texte
3. Le ton de la conservation est froid et les photos ne communiquent apparemment rien de précis, sinon (souvent) une beauté froide
4. Il n’engage aucune conversation et ne suit qu’un seul compte.

Pendant que je suivais cela, je ne savais pas que j’essayais de résoudre un casse-tête : pourquoi ces images ne concernaient pas l’architecture et pourquoi n’interagissait-elle pas avec qui que ce soit ? Peut-être que je devrais mieux enquêter sur la seule interaction visible, celle avec Pak, alias Murat Pak. Qui est-il ? Simplement ’Le Rien’. Un autre mystère. Ce courant ne concernait pas que l’architecture mais, comme dans Matrix, son esprit était un architecte, The Nothing : Mr Murat Pak.

Qui est Pak ?

J’ai alors pu comprendre qui il était et en particulier ce qu’Archillect est en réalité. J’ai découvert que la racine ’Archi’ ne signifie pas ’architecture’ mais ’Archive’. Archillect signifie ‘Archives + Intellect’. Une archive intellectuelle donc, régie par un algorithme. L’architecte Pak a créé le code mais celui-ci est gratuit, l’algorithme est indépendant et sélectionne les images à partir de quelques mots-clés qu’elle (Archillect is a she) optimise donc en fonction de la portée des messages et de la mesure dans laquelle ils sont aimés et partagés. Dans les propres mots de Pak :

Le processus de conservation d’Archillect est complètement automatisé. Elle est une archive d’inspiration vivante. Elle est une muse numérique. En conséquence, elle apprend, évolue, communique et devient heureuse à sa manière.

J’ai enfin compris la froideur qui se dégageait de ce récit et ses choix élégants. Archillect est un algorithme qui nourrit les téléspectateurs avec ce qu’ils cherchent, sans même qu’ils s’en rendent compte. Son univers visuel est fait d’images abstraites et belles mais presque dépourvues d’émotion. Ce n’est pas un hasard si les tons dominants sont froids, comme les gris, les bleus, les noirs, les couleurs délavées et que les matériaux utilisés sont généralement du béton, des métaux et des surfaces en plastique.

Le désir caché inconscient collectif est poli, parfait, presque sans présence humaine.
Le fait est qu’Archillect interprète et traduit les rêves non exprimés de la communauté et les traduit dans un langage qui est le résultat d’un algorithme. Un facteur impersonnel, un report d’additions et de soustractions.

En simplifiant, nous pouvons dire qu’Archillect fonctionne de deux manières : en recherchant des photos sur Tumblr, Flickr ou 500px, puis en les publiant sur des plateformes sociales et, éventuellement, en observant leurs performances. Ensuite, elle décide laquelle est jugée la plus intéressante sur la base des actions et des goûts. Cela a également conduit à des faux pas : au début de sa vie, elle a été chargée de rechercher des images à partir du mot ’balle’, qui deviendrait plus tard ’rondeur’ et finissait par se transformer en ’ânes’. Pak a été obligé d’intervenir après une rafale de messages contenant des images de parties du corps.

Depuis lors, Archillect est plus sélectif et contrôlé, mais il a développé une sorte de conscience de soi. Son créateur observe comment elle cherche et trouve du nouveau matériel et s’interroge souvent sur ses goûts et sur le fait qu’elle publie des photos qu’il n’aurait jamais vues et qui rencontrent plus de succès qu’il n’aurait pu en rencontrer. Comme indiqué dans une interview avec Motherboard, il semble presque ennuyé de savoir qu’elle (l’IA) sait gérer ce genre de compte mieux qu’un être humain.
C’est pourquoi j’ai décidé de faire l’inverse.

Depuis que j’ai compris le mécanisme, j’ai décidé d’essayer de revenir en arrière. Quel est le mot qui a enseigné Archillect au début de la séquence ? Archillect est un programme et elle ne suit aucune grammaire émotionnelle. Elle ne publie pas d’images pendant le temps libre, lorsqu’une mémoire fait surface ou si elle veut partager quelque chose, qu’elle soit bonne ou mauvaise. Elle n’a aucun sentiment et fonctionne automatiquement. Elle choisit, évalue, poste puis analyse la dynamique et la performance des postes. Elle décide ensuite des prochaines étapes et des directions sur la base de cette analyse. Elle apprend et se perfectionne en cours de route.

Parfois, par exemple, j’imagine, disons, que le « mot de commande » est du brouillard. Ou de la fumée. Je ne suis pas sûr. Observer comment elle développe la recherche est tout aussi intéressant. Vous pourriez découvrir des liens entre le brouillard qui enveloppe les arbres d’une forêt et la matière grise des montagnes. Et puis les montagnes peuvent mener aux pyramides et les pyramides pourraient se retrouver dans un détail mécanique. Il n’y a pas de lien explicite entre toutes ces choses, mais elles ont en commun quelque chose de similaire.

Je ne sais pas ce qu’Archillect essaie vraiment de dire, parce qu’elle ne communique pas de manière intelligible, mais seulement de manière allusive : elle se réfère à nos propres désirs cachés, mais pas au sensuel ni au morbide.

Stock d’images présentées - Archillect : FAQ - http://archillect.com/about - blog.archillect.com -ART + marketing

« We publish creators. Why they make. How they see. What they do. Everyday is the creators’ perspectives. This is the corporate blog of @AMI ». Nous publions des créateurs. Pourquoi ils agissent et fabriquent. Comment ils voient les choses. Ce qu’ils en font. Chaque jour qui passe constitue un ensemble de perspectives pour les créateurs. Ceci est le blog d’entreprise de @AMI. Follow pour suivre … - Translated from original by Martino Pietropoli. Architect, photographer, illustrator, writer. L’Indice Totale, The Fluxus and I Love Podcasts, co-founder @ RunLovers | -> http://www.martinopietropoli.com

Source : https://artplusmarketing.com/archillect-the-elegance-of-the-algorithm-f346f50c9ca0

Retour au début du sommaire

Rubrique B – L’IA dans mes médias et les réseaux sociaux

8.
IA dans les médias, un peu, beaucoup, passionnément ? Une cartographie des applications d’Intelligence Artificielle Par Kati Bremme, Direction de l’Innovation et de la Prospective - Publié le 26 mai 2019Illustration – Document ‘meta-media.fr’, par Eric Scherer, Directeur de la Prospective, France Télévisions

Les algorithmes sont faits pour résoudre des problèmes. Source de défiance pour les uns, solution miracle pour les autres, l’Intelligence Artificielle (IA) est partout, et impacte toutes les industries. Quelques-unes ont toutefois plus de mal à s’en emparer.

C’est le cas des médias, moins solvables et dynamiques que la finance ou la santé pour se doter des outils nécessaires à son intégration. Le cabinet PwC, dans son dernier AI Predictions Report, démontre bien ces différences, avec 20% des exécutifs interrogés qui prévoient de déployer l’IA dans leur entreprise, mais seulement 7% dans les médias.

Pourtant, les champs d’application de l’IA dans la presse, le cinéma, la radio, la télé et la publicité sont vastes : automatisation des process métier et des relations client, veille et écoute des réseaux sociaux, vérification de l’info, analyse prédictive de succès, création de vidéo et post-production, assistants vocaux et conversation, rédaction automatisée, personnalisation, recommandation, optimisation de la diffusion de contenus, tracking émotionnel et accessibilité.

Loin de se vouloir exhaustif, voici un panorama des utilisations de l’IA dans toute la chaîne de valeur des médias de l’information et du divertissement. Des applications qui pourraient bien redonner un élan à une industrie en réinvention.

Pourquoi maintenant ?

Née dans les années 50, l’Intelligence Artificielle est rentrée ces dernières années dans son 2ème printemps grâce à une combinaison de trois facteurs bénéfiques : l’augmentation exponentielle de la capacité des ordinateurs, la masse de données disponibles, et des logiciels open source, comme Tensorflow, Keras,Torch, Pytorch, langage Python, qui rendent disponible la technologie à un plus grand nombre.

Les algorithmes et les plateformes pour les faire tourner sont désormais accessibles sous forme de cloud (souvent mis à disposition par les GAFAs) et permettent aux médias de se lancer dans l’aventure des algorithmes. L’apprentissage machine (machine learning) est devenu apprentissage profond (deep learning), avec une IA qui n’a plus besoin des humains pour l’alimenter avec des calculs, mais qui se nourrit de milliards de données pour construire elle-même des fonctions cognitives. L’IA exécutante devient IA apprenante. Le système AutoML de Google a même créé tout seul un réseau de neurones IA sans intervention humaine. L’IA devient contextuelle, multidisciplinaire, et peut-être bientôt consciente d’elle-même...

Illustration  : Les usages de l’IA pour les médias vus de l’UER 

Côté audience, l’un des avantages pour l’adoption de l’IA par les utilisateurs est sa simplicité d’appréhension. Les humains n’ont pas besoin de s’adapter à l’IA, ou d’acquérir de nouvelles compétences (comme c’était le cas dans la préhistoire avec le langage MS DOS par exemple). On interagit avec l’IA par l’outil le plus simple et naturel : notre voix, ou même des images. Restent quelques questions éthiques que l’on abordera à la fin de ce texte.

Pour les médias, 4 catégories majeures pour l’utilisation de l’IA se dessinent : Marketing et Publicité, Recherche et documentation, Innovation dans l’expérience utilisateur et Services. 

Il est donc temps d’adopter cette nouvelle technologie au service de l’audience. Pour le nouveau directeur technique de l’UER, Antonio Arcidiacono, “AI is becoming mainstream”. En voici la preuve en 12 exemples d’utilisations :

1 L’IA comme outil pour une information augmentée

La peur, non seulement des journalistes, d’être remplacés par un robot ne date pas d’hier. L’IA va en effet remplacer une partie des tâches et rendre caduque certains métiers. En cela, l’année 2020 sera une année pivot : selon Gartner, l’IA va éliminer 1,8 M d’emplois, tout en en créant 2,3 M de nouveaux. Mais l’avenir des journalistes n’est pas en danger. Même si les ’journalistes robots’ sont déjà une réalité et utilisés dans de nombreuses rédactions pour produire plus vite, il restent confinés à des typologies de contenu bien précis.

L’agence Associated Press publie depuis 2015 des dépêches créées par des robots journalistes pour les annonces standardisées de l’actualité financière. La même année, Le Monde s’attache les services d’un robot-rédacteur de Syllabs pour les élections départementales et régionales. Avec Heliograf, développé en 2016 pour les Jeux Olympiques, Le Washington Post utilise l’IA pour couvrir notamment des événements de petite envergure, comme du sport local d’étudiant, dont l’audience est trop restreinte pour mobiliser un journaliste humain. La TV finlandaise YLE utilise son bot Voitto pour créer 100 articles et 250 images chaque semaine. On observe toutefois des différences culturelles dans l’adoption des nouvelles technologies par les rédactions. D’une part entre les pays du Nord et du Sud, mais aussi entre service public et médias privés, ces derniers étant davantage poussés par une logique de rendement.

Robots-rédacteurs ? En réalité, il ne s’agit pas vraiment de création, mais plutôt d’assemblage de contenus existants que l’on fait rentrer dans des templates prédéfinis. Mais la technologie progresse, et les générateurs de langage peuvent de plus en plus tenir compte du contexte pour sélectionner le format adapté.

Illustration - L’IA peut aussi aider les journalistes à analyser les données et détecter des tendances à partir de sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks. Par sa capacité de scanner et d’analyser des masses de données importantes, l’IA permet d’effectuer une veille permanente des tendances sur les réseaux sociaux et de détecter des signaux faibles. Elle peut en cela aider à accomplir une des missions du service public : faire en sorte que le public trouve efficacement l’information qu’ils recherchent et soit ainsi mieux informé. Associated Press utilise NewsWhip pour détecter des tendances sur Twitter, Facebook, Pinterest et LinkedIn. News Tracer est utilisé par l’agence Reuters pour détecter les tendances et les breaking news sur Twitter et faciliter la fabrication de contenu. Le système conçu avec Alibaba repère les news, les classifie, les annote et les ordonne. 

Au delà de la détection des tendances, l’IA est capable d’analyser des volumes massifs de données, inexploitables par l’humain, un processus à l’origine d’un nouveau journalisme d’investigation construit sur une collaboration homme/machine. La veille peut combiner des sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks ou encore les données émises par chacun via les objets connectés qu’il porte (smartphone, montre connectée, trotinette électrique…). Les Panama Papers sont le résultat du traitement de 2,6 téraoctets de données et d’un repérage de patterns par algorithme

Face à l’automatisation d’une partie des tâches du journaliste, l’IA force à repenser et réaffirmer les valeurs journalistiques pour revenir à un journalisme ’authentique’ en prenant en considération l’utilisateur individuel. Mais attention à ne pas ajouter de la masse inutile à l’infobésité : les contenus créés par l’IA doivent rester pertinents, et cela n’est possible que par une collaboration intelligente entre l’homme et la machine. Il s’agit de trouver la bonne balance entre jugement humain et automation, intuition, expérience et créativité pour devenir plus efficace dans la collecte, le traitement et la vérification de l’information.

2 L’IA pour lutter contre les fake news

Si l’IA est capable degénérer des fake news, elle peut aussi aider à les détecter. Fausses informations diffusées par des bots à l’accent slave ou Deep Fakes imitant la parole de Barack Obama, les progrès de l’IA pour nuire sont impressionnants. Tellement que Open AI a dernièrement stoppé son projet GPT-2, car l’IA était si sophistiquée qu’elle finissait par faire peur à ses créateurs. L’IA est parfois annoncé comme un remède miracle, notamment par Mark Zuckerberg lors de sa première audience devant le Congrès américain suite au scandale Cambridge Analytica, où il répondait à toutes les questions embarrassantes : ’I dont know, our AI team will fix it’. Bien sûr, la vérité n’arrive pas magiquement par le Big Data. Mais la technologie pour fabriquer un fake étant la même que celle pour le détecter, l’IA est un allié important dans la lutte contre la désinformation.

On le sait, le problème avec les fake news n’est pas tant que les gens ne font plus confiance aux médias, mais plutôt qu’ils font confiance à n’importe quelle fake news. Grâce à ses capacités d’analyse poussées l’IA peut automatiser, du moins en partie, la vérification de l’information : vérification de l’authenticité des photos/vidéos grâce à la reconnaissance d’images, à l’analyse des métadonnées, à la comparaison en temps réel des informations avec des banques de données.

Combiné à la blockchain, l’IA peut aussi permettre d’authentifier une information. Facebookutilise l’IA pour détecter des “patterns sémantiques” qui seraient caractéristiques des fake news, avec le succès que l’on lui connaît. Truepic et Serelay se basent sur la blockchain pour authentifier les images, utilisés par l’équipe de vérification d’info du Wall Street Journal. ADOBE détecte les images retouchées grâce à un algorithme. DeepNews.ai est un outil surtout destiné aux plateformes d’agrégation. Il sélectionne sur Internet les articles les plus pertinents sur les sujets d’actualité. L’algorithme prend ensuite en compte la profondeur du traitement du sujet, l’expertise, les qualités de l’analyse et les moyens mis en œuvre en s’appuyant sur un réseau de neurones convolutifs.

Illustration- L’équipe du Medialab de l’AFP a mené plusieurs projets qui aident les journalistes à détecter les fake news en recherchant notamment l’origine exacte de photos et vidéos qui peuvent ne pas refléter les événements qu’ils sont censés décrire, dernier en date : WeVerify. 

Là encore, l’algorithme n’est pas la solution miracle, la plupart des initiatives et des outils fonctionnent en combinaison avec les humains, dont la capacité d’analyse et de vérification des sources, ne serait-ce que par un simple coup de fil, dépasse encore celles des robots. Pour optimiser la recherche, les algorithmes peuvent simplement être entraînés avec les données du taux de clic sur un contenu. Cette technique ne fonctionne pas pour la détection de fake news. Ici, les jeux de données pour entraîner l’algorithme à la détection de fake news doivent être codés par des fact-checkeurs humains.

3 L’IA pour améliorer la discussion sur Internet

Discours de haine, discrimination, violence, les trolls sont un fléau d’Internet. L’IA, à travers le traitement automatique du langage naturel (NLP) peut analyser automatiquement des contenus, les classifier, et mettre en place une modération automatique 24h/24. Mais attention, l’analyse automatique des contenus a ses limites. Même les IA très sophistiquées des plateformes ne sont pas capables d’empêcher la diffusion d’images violentes en direct, comme cela était encore le cas récemment avec les directs de la tuerie de Christchurch. Les plateformes ne se fient pas à 100% à la modération par l’IA, leur process de modération de contenu est une combinaison entre IA et humains. L’IA ne résoudra pas si vite, et peut être même jamais – car la technologie ne sera pas capable de saisir certaines nuances comme l’humour – la misère des modérateurs humains de Facebook.

Les systèmes automatiques sont néanmoins incontournables pour analyser des masses de contenu disponibles sur les réseaux sociaux, détecter des nuisances, sélectionner d’éventuelles contenus à supprimer (en qualifiant les cas de doute qui nécessitent une intervention humaine), et même empêcher la mise en ligne de contenus douteux, en bloquant l’upload d’images de haine. Les algorithmes sonnent aussi le retour des commentaires sur les sites, que les éditeurs avaient souvent fermés faute de moyens de modération. L’outil Perspective utilisé au NYT évalue le degré de toxicité des commentaires via reconnaissance de mots-clés. Le NYT souhaite ainsi passer de 10 % d’articles ouverts aux commentaires à 80 %. Il est aussi adopté par The Guardian et The Economist.

L’IA permet donc de donner un peu plus d’espace à l’expression de l’audience en automatisant un certain nombre de tâches, mais sans pour autant remplacer les humains pour la gestion des nuances qui dépassent l’intelligence des robots. 

4 L’IA au service de la voix

Le traitement naturel du langage et la reconnaissance vocale ont permis de développer des assistants conversationnels (chatbots, smart speakers) capables de dialoguer avec des humains. Déjà 20% des recherches sont vocales (Meeker), 50% le seront d’ici 2020 (ThinkWithGoogle). Les assistants vocaux sont un nouveau carrefour d’audience pour les médias.

Lorsque nous parlons à Google Home, Amazon Alexa ou Apple Siri, l’IA est utilisée pour comprendre notre voix. Cette même technologie de réseau de neurones et de Natural Language Processing peut être utilisée pour dessiner des concepts spécifiques et définir des mots clés qui déclenchent des actions. Dans le sens inverse, par la Natural Language Generation, l’IA est capable de transformer des textes en voix. Des centaines de milliards de données sont nécessaires pour entraîner les algorithmes afin de traduire nos accents, dialects, formulations rocambolesques et autres originalités de la langue en des formules mathématiques compréhensibles pour un robot. C’est la raison pourquoi Alexa a besoin d’écouter toutes nos conversations, selon Jeff Bezos.

L’arrivée de BERT (Bidirectional Encoder Representations from Transformers) développé par Google marque une évolution signifiante dans le développement de l’IA pour la voix : arrivant à une précision de 93,2 %, des ordinateurs sont désormais capables d’apprendre les aléas des langues et peuvent appliquer ses apprentissages à une multitude de tâches.

Illustration - De nombreux outils se développent pour exploiter au mieux la voix, ce moyen de communication des plus naturels : Lyrebird est une start-up canadienne qui crée des voix artificielles ultra réalistes et des avatars vocaux. Alexa a désormais unevoix de présentateur professionnel pour la lecture d’infos. L’IA de Google est capable de reconnaître une voix même si elle ne l’a jamais entendue. La voix boostée à l’IA reprend les intonations et formules d’un présentateur d’info humain après un entraînement en text to speech de seulement quelques heures. Snips.ai  propose un service d’assistant vocal entièrement embarqué pour constructeurs professionnels, quel que soit le support, et respectueux de la vie privée des utilisateurs. Le VSO devient le nouveau SEO, un enjeu majeur pour les médias, et Google propose désormais des podcasts dans ses résultats de recherche. 

Mais même derrière Duplex, l’assistant virtuel de Google capable d’imiter votre voix et vos défauts pour prendre des rendez-vous, se cachent 25% d’humains travaillant dans un call center.

5 L’IA pour créer l’interactivité et l’engagement

En 1960, le laboratoire d’Intelligence Artificielle MIT a créé la machineELIZA qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du ’patient’ en questions, et en les lui posant. Grâce à l’IA, les possibilités d’interactions sont aujourd’hui bien plus développées. Le chatbot utilise à l’origine des bibliothèques de questions et réponses, mais les progrès de l’intelligence artificielle lui permettent de plus en plus ’d’analyser’ et ’comprendre’ les messages par le biais des technologies de traitement du langage naturel et d’être doté de capacités d’apprentissage liées au machine learning. Que ce soit pour la consommation d’information ou l’interaction avec des clients (Gartner Marketing prévoit 85% des interactions sans humains pour 2020), l’automatisation du dialogue est de plus en plus sophistiquée et personnalisée.

La fabrication des bots basiques est aussi accessible plus facilement : Facebook propose une solution clé en main dans Messenger, et des plateformes comme Omnibot, Politibot ou encore Sently distribuent des solutions plug and play avec des formats spécialement dédiés aux médias pour ce dernier.

Que ce soit des bots intégrées dans des messageries pour aller à la rencontre des utilisateurs (1,6 milliard d’utilisateurs pour WhatsApp, 1,3 milliard pour Facebook Messenger), ou des bots développés directement dans les sites et applis, l’interaction conversationnelle est pour les médias un moyen de proposer une expérience utilisateur de proximité.

Illustration - Les chatbots automatisent la relation, favorisent l’engagement et sont immédiatement personnalisées. Quartz a développé son bot studio pour proposer des narrations conversationnelles personnalisées. Le Guardian a son chatbot depuis 2016, CNN et le Wall Street Journal utilisent Facebook Messenger pour diffuser de l’information, NBCpropose des breaking news via l’application Slack. La BBC a intégré un bot dans ses articles pour interagir avec l’audience. 

Des contenus interactifs de fiction sont aussi développés : The Inspection Chamber est un format créé par la BBC pour interagir avec un récit par la voix, StoryFlow propose des histoires sonores interactives pour enfants, The Wayne Investigation est une fiction sonore interactive disponible sur les enceintes connectées équipées d’Amazon Alexa. Alexa adapte aussi les Histoires dont vous êtes le héros en version sonore. Avec OLI, Radio France propose des contes de nuit dédiés à l’enceinte connectée de la chambre d’enfant. 

Au-delà de ces exemples, en simple assistant ou créateur de contenus, l’IA peut innover le storytelling dans les secteurs de la pub, du marketing, du cinéma et de l’audio.

6 L’IA dans la réalité étendue

Grâce aux avancées de la technologie, les chatbots se transforment en compagnons virtuels, capables de tenir de véritables discussions et débats. L’intelligence artificielle et la réalité virtuelle semblent être deux champs de recherche différents, mais l’évolution technologique montre que les deux domaines sont de plus en plus liés. Au départ réservé au monde du gaming, ces nouvelles technologies arrivent petit à petit dans la création audiovisuelle. L’IA va changer le storytelling grâce à des personnages virtuels capables d’interactions avancées avec des humains.

Avec leur projet “Whispers in the Night”, le studio Fable s’est lancé dans la création de personnages virtuels animé par l’Intelligence Artificielle. Il s’agit de dessin animés par ordinateur augmentés par l’IA et basés sur la même technologie que celle utilisée par Epic Games ou encore Magic Leap, au service d’un storytelling immersif. Emoshape utilise le composant “Emotion Processing Unit” (EPU) pour déterminer en temps réel les émotions des utilisateurs et permettre aux robots de répondre avec un état émotionnel en phase avec celui de l’utilisateur. La technologie s’associe même aux sciences pour optimiser les interactions et les rendre le plus réaliste possible. Le MIT Media Lab a customisé un casque VR qui intègre un dispositif capable de détecter les émotions de l’utilisateur. Ce module de capture physiologique est constitué d’électrodes permettant de collecter les données de ’réponse galvanique de la peau’ (GSR) et de capteurs de type photoplethysmogramme (PPG) pour collecter les données de rythme cardiaque.

Illustration - Moins emplie d’appréhension face aux robots humanoïdes que le continent européen, la Chine a lancé des présentateurs JT boostés à l’IA avec son agence de presse Xinhua : d’abord, le 9 nov 2018, la version masculine, Qiu Hao (qui parle chinois et anglais), ensuite, le 19 fev 2019, la version féminine, Xin Xiamomeng. Dopés à l’intelligence artificielle et au machine learning, ils peuvent commenter de manière autonome des vidéos en direct et lire des textes sur un prompteur.

7 L’IA pour indexer, archiver et optimiser les recherches

Avant, les moteurs de recherche fonctionnaient exclusivement sur du texte. Avec l’avènement de l’IA, la recherche est désormais possible sur des images, vidéos et sons. Grâce à la combinaison des technologies de reconnaissance d’image, machine learning, speech-to-text, NLP, reconnaissance de visages, d’objets et de lieux, l’IA peut automatiser la création de métadonnées sur les contenus pour améliorer leur archivage et surtout favoriser leur découvrabilité. La structuration des données, à l’instar du format EBUCore, est l’étape incontournable à leur exploitation automatique. Conversions de formats de données, transcodage, extraction d’audio et de sous-titres ou encore déplacements/copies/purges (FTP, HTTP) sont autant de tâches automatisables de la gestion des contenus permettant presque un catalogage en temps réel. L’indexation automatique accélère aussi le travail des journalistes et facilite le fact-checking.

La durée de vie d’un contenu est très courte, et sans métadonnées appropriées il est impossible de retrouver un sujet spécifique parmi tout ce qui a été été produit. D’ou l’importance d’une optimisation de la fabrication des méta-donnes. L’IA rend la fabrication de méta-données plus rapide, moins coûteuse et plus précise, sous condition de l’entraîner avec suffisamment de données.

Illustration - Développer des solutions propriétaires et maîtrisées à 100% est presque impossible pour un média. De nombreux outils clés en main sont proposés, souvent relayés à des systèmes de cloud de Microsoft, Google, Amazon, IBM, OpenText, Oracle ou tant d’autres.
Newsbridge, très présent dans le secteur des médias, propose une solution d’indexation automatique et en temps réel des rushs, via la reconnaissance d’image. Cela permet en même temps d’optimiser le process de production d’un sujet et de pérenniser les contenus en facilitant leur réutilisation plus tard. Une fonctionnalité de traduction en direct est également proposée pour les interviews. 

Editor est un outil à base d’IA utilisé depuis 2015 par le NYT pour simplifier la vérification et la mise en forme de l’information. Lorsqu’il rédige son article, le journaliste utilise des tags pour signaler les éléments clés - la machine apprend à repérer ces éléments, à comprendre le sujet de l’article et fait une recherche en temps réels pour extraire des informations sur ce sujet. Le BBC News Lab a lancé une technologie de taggage similaire appelée Juicer et un autre outil appelé Summa qui utilise la reconnaissance du langage pour mieux indexer les contenus. LEANKR permet une indexation fine de vidéos, avec un taggage automatique, une création de vignettes intelligente, et un moteur de recherche dans la vidéo grâce au Natural Language Processing, speech-to-text et à l’OCR. 

L’IA aide en effet à optimiser la justesse des résultats de recherche. Des technologies de vision ordinateur permettent aussi de mieux traiter les contenus images et accélérer le process de production. Les machines peuvent aujourd’hui facilement identifier des individus ou situations dans des photos, pour générer des légendes ou alimenter des bases de données plus complètes.

8 L’IA pour cibler et personnaliser

Les algorithmes de recommandation ne datent pas d’hier. Leur pionnier, Tapestrya même fêté son 25ème anniversaire en 2017. A travers les algorithmes de recommandation, l’IA est un outil parfait pour adapter la stratégie de distribution des contenus en temps réel : analyse des tendances des réseaux sociaux pour identifier le moment de diffusion le plus opportun, analyse d’audience, génération automatique de titres/résumés/illustrations avec des mots-clés et hashtags qui garantissent d’apporter de la visibilité au contenu, newsletters personnalisées, playlists sur mesure...

Illustration - Des contenus taillés sur mesure selon le profil de chaque utilisateur, personnalisés selon son profil, son parcours, en prenant en compte des données contextuelles (lieu, moment, météo...). Les focus groups sont désormais remplacées par la base de comportements réels des utilisateurs existants.

Le cas d’école de la personnalisation sont Amazon, Facebook et Netflix. Ce dernier adapte entièrement sa page d’accueil. Son système Meson couplé au machine learning (à travers la collecte de données pour évoluer constamment) propose même le visuel personnalisé (9 versions) sur lequel l’utilisateur est le plus susceptible de cliquer selon son parcours d’utilisation et son contexte. Objectif : trouver le plus grand combo de séries qui pourrait convenir a des segments pour satisfaire les utilisateurs plutôt que du contenu qui correspond au plus grand nombre. L’algorithme est alors à la base de créativité et diversité plutôt que de standardisation. 

L’IA peut automatiser la curation de contenus, mettre à jour régulièrement les playlists thématiques, profiler les utilisateurs pour faire de la recommandation personnalisée. Selon une étude de Reuters, 59 % des médias utilisent l’intelligence artificielle pour recommander des articles ou projettent de le faire. Your Weekly Edition est une newsletter personnalisée du NYT lancée en juin 2018 qui envoie une sélection personnalisée (via curation algorithmique & humaine) de contenus dans un seul but : ne montrer à l’utilisateur que des contenus qu’il n’a pas encore vus. Amazon Personalize permet aux développeurs sans expérience en machine learning de créer facilement des fonctionnalités de personnalisation. Freshr est un bot Messenger qui résume les actus les plus importantes du moment en fonction des goûts de l’utilisateur chaque matin en seulement 5 minutes destiné aux 20-35 ans. 

Les algorithmes de recommandation sont loin d’être parfaits. L’économiste Matthew Gentzkow parle même d’un ’personalization paradox pour décrire leur côté déceptif. Combien de fois nous-a-t-on proposé un contenu déjà acheté, ou juste du contenu posté par nos amis sur Facebook ? Là aussi, les progrès de l’IA pourront aider à trouver le bon équilibre entre personnalisation et promotion intelligente de contenu. Et peut-être que les méthodes traditionnelles sont parfois aussi efficaces : RAD, le laboratoire de journalisme de Radio Canada, utilise des sondages en ligne auprès de leur audience pour leur proposer un contenu adapté à leurs attentes.

9 L’IA pour rendre accessible

Les technologies de retranscription automatiques facilitent d’un côté la vie des journalistes en optimisant leur temps de travail, et rendent en même temps accessible des contenus aux personnes en situation de handicap grâce à l’automatisation des sous-titres (speech to text), la mise en son des textes (text to speech), la reconnaissance contextuelle des images pour l’audiodescription ou encore la traduction en temps réel.

AI Media TV propose sous-titrages et transcriptions pour des événements en direct en en replay. Ils viennent de lancer le service Scribblr.ai. Trint est un outil de transcription financé par Google DNI, qui sert à transcire automatiquement des flux audio et vidéo. Il est utilisé par l’AP et intégré dans Adobe Première. Mediawen gère la traduction de contenus vidéo en temps réel à l’aide d’IBM Watson et du text to speech, en voix de synthèse ou en sous-titrage. L’AFP a développé l’outil Transcriber, qui permet à ses journalistes d’automatiser la retranscription des entretiens. 

10 L’IA pour la production vidéo et la création 

Avec le besoin grandissant des médias de fabriquer de formats courts adaptés aux réseaux sociaux, de nombreuses start-ups proposant des solutions clés en main se sont développées. On peut alors utiliser l’IA pour générer automatiquement du texte à partir de documents graphiques, ou une vidéo à partir de textes. L’IA assiste aussi dans les différentes étapes techniques de la captation et de la diffusion. Elle intervient dans la post-production de l’image et les effets spéciaux. Le nombre de solutions contenant des briques IA dans le développement de l’édition vidéo et du média management a augmenté de façon exponentielle ces dernières années.

Illustration - Grâce à la reconnaissance d’image, l’IA est capable d’analyser des rushs vidéo pour produire un montage cohérent. La plupart des grands éditeurs de logiciels de montage, comme Adobe, Avid et Elemental (filiale d’Amazon) ont, eux aussi, déjà ajouté des fonctions de traitement automatique des vidéos pour faire gagner du temps aux monteurs. Adobe et Stanford ont par exemple développé une IA qui automatise une partie du travail de montage vidéo tout en laissant la main à l’homme sur la partie créative. L’outil peut par exemple faire différentes propositions de montage d’une scène de dialogue. Gingalab crée des vidéos automatisées et personnalisées et génère automatiquement des best-of selon une ligne édito prédéfinie (humour, tension, focus sur un protagoniste…), en mettant à disposition des outils de montage simplifiés, pour publier ensuite automatiquement sur les réseaux sociaux et agréger les analytics.

En septembre 2018, la BBC a diffusé une émission entièrement fabriqué par un robot. “Made By Machine : When AI Met The Archive a assemblé une partie des riches archives de la BBC dans un format d’une heure, pas forcément toujours cohérent (le même reproche que l’on faisait déjà aux IA scénaristes des Sunspring, It’s No Game et Zone Out).

Même si la technologie des GAN (Generative Adversarial Networks, ou ’réseaux génératifs antagonistes’) aide à améliorer la copie des créations par robot, du côté de l’art, l’IA n’est clairement pas prête de remplacer les artistes : elle reste basée uniquement sur des systèmes probabilistes et combinatoires qui n’ont aucune intelligence symbolique ni capacité émotionnelle.

11 L’IA pour monétiser et prédire le succès

De l’analyse d’audience avancée à la détection de la bonne cible, les algorithmes du machine learning aident le marketing à séparer les conjectures des tâches essentielles. L’IA, en recoupant données comportementales, analyse d’audience et détection des tendances est capable de prévoir les potentiels succès commerciaux des contenus avant leur diffusion. L’analytique avancée sert ainsi à découvrir des modèles, des corrélations et des tendances permettant d’améliorer les processus décisionnels. L’IA intervient dans toute la chaîne marketing : l’acquisition de clients (analyse d’audience et segmentation, scoring et ciblage, identification visuelle du contexte), la transformation (personnalisation et recommandation, création de contenus, optimisations de sites et de supports, pilotage automatisé des campagnes) et la fidélisation (agents conversationnels, automatisation du programme client, analyse comportementale, calcul de l’attribution et prédictions).

Illustration - L’IA est même capable désormais de collecter la ’data émotionnelle’ pour analyser nos comportements non seulement par nos clics, mais aussi par nos émotions. C’est le dernier degré de de la personnalisation : des médias qui proposent des contenus adaptés à notre contexte émotionnel du moment. Frank Tapiro de Datakalab décrit cette transformation de la façon suivante : ’Pendant trente ans, j’ai créé de l’émotion. Aujourd’hui, j’utilise les neurosciences et les datas pour mesurer l’émotion’. Amazon prépare même un bracelet pour détecter nos émotions.

Prévision.io est une plateforme en ligne (SAAS) qui permet de créer automatiquement des modèles prédictifs à partir de jeux de données (internes ou externes, structurées ou non) et de visualiser les résultats sur des tableaux de bord. Cette plateforme de machine learning identifie des scénarios prédictifs pour prévoir des pertes d’audience, des désabonnements et pour la gestion des tarifs des écrans publicitaires. Elle promeut la transparence de sa solution, en expliquant chaque résultat et en proposant des recommandations d’actions et/ou des évaluations d’impact. Le groupe Le Parisien-Les Echos a remporté récemment un financement Google DNI pour un programme anti churn (anti-désabonnement). Intitulé High Fidelity, ce projet doit permettre la mise en commun des données provenant des call centers, des newsletters, des envois de courriers et des interactions provenant des applis et des sites web, et prédire les désabonnements en cascades pour éviter la perte massive de lecteurs. Avec Project Feels, le NYT de son côté vend des espaces publicité premium en fonction du sentiment du lecteur. Vionlabs est une société suédoise qui intervient sur l’indexation des contenus à partir de la reconnaissance automatique des émotions. Elle analyse les contenus, constitue des graphs en représentant les différents moments émotionnels. Ces données vont ensuite pouvoir alimenter un moteur de recommandation basée sur les émotions.

L’IA est utilisée pour connaître le plus finement possible les utilisateurs et être capable de cibler le meilleur moment - et la meilleure façon - de leur proposer de passer à un abonnement payant. L’IA devient aide à la prise de décision et outil anti-churn.

12 L’IA et l’éthique appliquée aux médias

En pleine crise de confiance, l’utilisation de l’IA et d’algorithmes opaques de recommandation impliquant l’analyse de comportements n’est peut être pas un choix évident pour les médias. L’usage de l’IA nécessite en effet l’instauration de règles claires et une documentation transparente à destination de l’audience. Le Big Data qui alimente l’IA est basé sur la collecte massive de données (y compris personnelles). La propriété des données et l’indépendance à l’égard de sources tierces est crucial pour le développement d’un écosystème indépendant, et pourrait être déterminant pour la survie à long terme des entreprises, en particulier pour celles du secteur des médias.

Or, la plupart des jeux de données et des algorithmes disponibles dans les clouds des GAFAs sont biaisés, voire même racistes.

Comment alors intégrer les valeurs du service public (information, éducation) dans un algorithme de recommandation ?
Comment fédérer autour d’un sujet pour animer le débat public ?
Comment continuer à jouer le rôle de la recommandation dans la cohésion sociale ?
Quel est le degré de recommandation que nous souhaitons ?
Où se trouve la juste balance entre personnalisation et découverte de contenus ?

Illustration - Le gouvernement anglais a lancé un observatoire de l’utilisation de l’IA dans le service public. La BBC applique ses règles éthiques dans le programme ’Responsible Machine Learning in the Public Interest’, rejoint par l’UER, dont le groupe de travail Big Data réfléchit à une utilisation éthique des algorithmes dans les médias de service public pour éviter les biais et répondre aux enjeux de cet outil encore peu maîtrisé : l’inégalité face à l’intelligence artificielle, le neurohacking, la souveraineté technologique, et surtout la nécessité de la complémentarité du cerveau avec l’intelligence artificielle.

L’interprétabilité et l’explicabilité de l’IA , deux néologismes anglais, sont le plus grand défi. L’intelligibilité des algorithmes en général et particulièrement ceux de l’intelligence artificielle est devenue un critère prépondérant, évoqué notamment dans le rapport Villani en France et mis en exergue depuis le RGPD en Europe. Le premier moyen d’être transparent étant déjà d’indiquer clairement qu’un contenu ou une recommandation sont totalement ou en partie proposés par un algorithme.

D’un autre côté, les possibilités des l’IA permettent aussi d’atteindre des audiences de niche pour lesquelles un média n’avait pas les moyens de fabriquer du contenu. Les algorithmes permettent de créer des playlists entièrement personnalisées sur des sujets très ciblés. Et peut être que les médias peuvent aussi laisser la place au vide. En ce sens, Jonnie Penn, auteur invité au Workshop The impact of AI on Media de l’UER en novembre 2018, clame le besoin de ’data deserts’, des ’protected areas from data’, pour laisser la place à une ’healthy differences of opinions’.

Conclusion :

Le buzz autour de l’IA peut aussi déclencher des attentes trop élevées : l’A n’est pas la solution miracle, dans la plupart des cas que l’on a détaillés ci-dessus, elle a besoin d’être associée à l’humain, notamment pour créer du contenu. Elle est néanmoins déjà opérationnelle du côté de la demande dans les domaines de la diffusion, de l’accès au contenu et de la monétisation. Elle a un grand potentiel de bien social pour aider à naviguer dans la masse de contenus par l’optimisation de la recherche et la recommandation personnalisée, et pour prévenir la manipulation.

Autant de cas d’usage, en attendant les applicatifs à venir dans les voitures autonomes... Mais cette nouvelle technologie a besoin d’une sensibilisation d’un côté de l’ensemble des acteurs de la chaîne de valeurs des médias, et de l’autre de l’audience, des plus jeunes aux plus âgés, pour leur transmettre les enjeux de l’IA.

L’IA est bonne à certaines tâches, mais ne remplace pas les humains. La plus grande valeur apporté par les médias est (ou devrait être) la production de contenus complexes qui touchent aux domaines du jugement, de l’interprétation, de la créativité et de la communication, où les humains dominent encore les algorithmes, et le feront certainement encore pour des années à venir.

Mais l’IA peut aussi aider à se poser les bonnes questions : Comment créer de la valeur pour l’utilisateur ? L’IA a un impact très fort sur la société, et le rôle des médias est à veiller de l’utiliser à bon escient, en particulier des médias de service public.

Les cas d’usage sont encore à inventer, en faisant attention toufois à ne pas utiliser l’IA sans répondre à un besoin réel et sans apporter de valeur. Juste parce que l’on a la capacité technique de le faire, son intégration n’est pas pertinente partout, comme le remarque Jonnie Penn : ’Machine learning is like salt : you can add it but if you have too much it is unhealthy’.

Pour accéder à la cartographie complète avec plus d’exemples (non exhaustifs bien entendu), c’est par ici. Et pour la version anglaise de l’article et de la cartographie,c’est par ici. N’hésitez pas à partager d’autres exemples d’applicatifs IA dans les médias avec nous pour enrichir cette cartographie. Vous pouvez nous contacter ici !

Publié par Méta Media / Catégories : business model, data, intelligence artificielle / Étiquettes : cinéma, information, intelligence artificielle

Meta-mediahttps://www.meta-media.fr

A propos : Fake News, ‘découvrabilité’, réalité virtuelle et intelligence artificielle - Méta-Media, le blog collectif de France Télévisions, décrypte les tendances pour comprendre les médias et le journalisme de demain.

Résultat de recherche d’images pour ’meta media’

Source : https://www.meta-media.fr/2019/05/26/ia-dans-les-medias-un-peu-beaucoup-passionnement-une-cartographie-des-applications-dintelligence-artificielle.html

Retour au début du sommaire

9.
Quand médias et réseaux sociaux sont à l’œuvre pour fabriquer et rapporter les actualités

9.1.
Quelques exemples de désinformation, conspiration, impostures et besoins de modération, diffusés par ‘vice.com’

Au Brésil, Whatsapp devient un champ de bataille politique - L’application de messagerie, devenue un quasi-réseau social en Amérique du Sud, est-elle l’outil parfait pour la désinformation ? Par Olivier Bories - 22 Octobre 2018, 11:39am – Source : https://www.vice.com/fr/article/5988pb/au-bresil-whatsapp-devient-un-champ-de-bataille-politique

Même les documents internes de Facebook sont victimes des « fake news » - Dans un document de formation destiné à ses futurs modérateurs, le réseau social décrit un cliché des victimes d’un séisme comme une photographie de Musulmans tués en Birmanie. Par Joseph Cox - 11 Septembre 2018, 11:22am – Source : https://www.vice.com/fr/article/j5ny5d/meme-les-documents-internes-de-facebook-sont-victimes-des-fake-news

La vidéo numéro un des tendances YouTube est une théorie du complot - Une vidéo intitulée ’DAVID HOGG THE ACTOR....’ a atteint le sommet de la section tendances, ce qui prouve une fois de plus que YouTube a un gros problème de conspirationnisme. Par Emanuel Maiberg - 23 Février 2018, 10:08am – Source : https://www.vice.com/fr/article/a344ez/la-video-numero-un-des-tendances-de-youtube-est-une-theorie-du-complot

Trump a fait accrocher une fausse Une du TIME dans ses clubs de golf - Sur cette fausse couverture, les titres rendent hommage au génie de Trump : « Donald Trump : ‘The Apprentice’ est un succès télévisé ! » Par VICE News - 28 Juin 2017, 11:29am – Source : https://www.vice.com/fr/article/8xjvgp/trump-a-fait-accrocher-une-fausse-une-du-time-dans-ses-clubs

Facebook va noter votre crédibilité, mais sans vous dire comment - Facebook a décidé de noter votre « fiabilité » de 0 à 1 au nom de la lutte contre la désinformation et ses responsables. Le problème, c’est qu’il garde son barème secret. Par Daniel Oberhaus - 23 Août 2018, 10:15am – Source : https://www.vice.com/fr/article/7xqa8y/facebook-va-noter-votre-credibilite-mais-sans-vous-dire-comment

Comment construire et détruire une réputation en utilisant des faux profils - Même si elles sont illégales, les fermes à bots de Facebook aident les politiciens et les marques à parfaire leur image en échange de quelques milliers de dollars. Par João Paulo Vicente - 27 Juillet 2017, 9:55a – Source : https://www.vice.com/fr/article/j5qz58/comment-construire-et-detruire-une-reputation-en-utilisant-des-faux-profils

Source de ces références : https://www.vice.com/fr/topic/fake-news

Retour au début du sommaire

9.2.
Les droits du numérique sont défendus par ‘La Quadrature du Net’

Exemple - La Quadrature du Net a retweeté Mounir Mahjoubi qui préconise d’utiliser « l’ intelligence artificielle » 06:58 - 20 février 2019

Aider les acteurs du Web à utiliser l’« intelligence artificielle » de Facebook et Google ? Le gouvernement veut les y forcer pour soi-disant lutter contre le terrorisme ou la haine en ligne. Nos juges seront remplacés par la police et les modérateurs de Facebook/Google…

Vidéo 1:11 / Mounir Mahjoubi - Compte certifié @mounir

L’Intelligence Artificielle, ce n’est pas de la science-fiction. Elle doit être accessible à nos administrations et à nos entreprises pour plus de performance. Notre écosystème français de l’IA est prometteur…. - 06:58 - 20 févr. 2019

La Quadrature du Net @laquadrature 20 févr.

En imposant des obligations irréalisables (et inutiles) à l’ensemble du Web, vous détruisez l’écosystème européen que vous prétendez défendre. Les seuls gagnants seront les GAFAM. Appelons les députés européens pour s’opposer au règlement terroriste..

Avec de nombreux commentaires éclairés sur ce site : https://twitter.com/mounir/status/1098226661382909952

Source : https://www.laquadrature.net/ qui défend les droits du numérique

Retour au début du sommaire

9.3.
Repérage spatial de la dynamique des contributions numériques touchant la France

Repérage des contributeurs numériques sur une possible influence d’origine russe contre E. Macron selon Elliot Alderson @fs0c131y 00:45 - 13 déc. 2018

A few days ago, I captured almost 300K tweets with the hashtag #macron20h. Moreover, a lot of people in France are wondering if Russia is trying to influence the yellow vests movement. So, I decided to hunt the Russian profiles in this graph. Thread

Il y a quelques jours, j’ai capturé près de 300.000 tweets avec le hashtag #macron20h.. De plus, beaucoup de Français se demandent si la Russie essaie d’influencer le mouvement des gilets jaunes. J’ai donc décidé de rechercher les profils russes dans ce graphique. Fil

https://pbs.twimg.com/media/DuSKdHoW4AAppGg.jpg00:45 - 13 déc. 2018

As always, an explanation for the graph is needed : - a node is a twitter profile. - an edge is a retweet of a French tweet with the hashtag #macron20H - the size of the node has been calculated with the Pagerank algorithm - the colors show the communities

« Comme toujours, une explication du graphique est nécessaire : - un nœud est un profil Twitter. - un bord est un retweet d’un tweet français avec le hashtag #macron20H - la taille du nœud a été calculée avec l’algorithme Pagerank - les couleurs indiquent les communautés ».

Source : https://twitter.com/fs0c131y/status/1073136780612902912?s=20

Repérage des contributeurs numériques au mouvement ‘Gilets Jaunes’ Actes V - 5 selon Elliot Alderson @fs0c131y 05:51 - 16 déc. 2018

It’s Sunday and it’s the time for a new thread ! This week, I captured 287627 tweets with the hashtags #ActeV and #Acte5. These hashtags were made for the yesterday’s protests of the yellow vests. Let see together who were the 10 most influential persons on this topic’.

« C’est dimanche et c’est le temps d’un nouveau fil ! Cette semaine, j’ai capturé 287.627 tweets avec les hashtags #ActeV et # Acte5. Ces hashtags ont été fabriqués pour les protestations des gilets jaunes d’hier. Voyons ensemble qui étaient les 10 personnes les plus influentes sur ce sujet ».

https://pbs.twimg.com/media/Duit8P0WkAE-iKq.jpg

Autres démonstrations à découvrir à la source ci-dessous. Extrait de https://twitter.com/fs0c131y/status/1073136780612902912?s=20

Retour au début du sommaire

9.4.
Les outils numériques et l’Intelligence Artificielle avec reconnaissance faciale sont utilisés par la police chinoise par Lukas Stefanko @LukasStefanko 19 août 2019

Custom smartphone made for Chinese Police running ’PMOS-H’ OS It can collect + identify faces in real-time and verify IDs. Can’t seem to find anything relevant about ’PMOS-H’. It might be interesting to analyze such device and its security. cc @fs0c131y

« Smartphone personnalisé conçu pour la police chinoise sous le système d’exploitation ’PMOS-H’. Il peut collecter + identifier les visages en temps réel et vérifier les identifiants. Je n’arrive pas à trouver quoi que ce soit de pertinent à propos de ’PMOS-H’. Il pourrait être intéressant d’analyser un tel appareil et sa sécurité. cc @ fs0c131y »

Extrait du site : https://twitter.com/LukasStefanko/status/1163345110983217153?s=20

Retour au début du sommaire

9.5.
Les évènements de Hong Kong durant l’été 2019 – Quelques exemples

Les manifestants chantant à l’aéroport international de Hong Kong avec Joshua Wong 黃之鋒 Compte certifié @joshuawongcf 02:40 - 10 août 2019

More than thousand HKers sing ‘Les Miserables’ ; Do you hear the people sing ? at HK international airport with their calls for free election and democracy. Here is the Ground Zero in the war against authoritarian rule. That’s the reason for us never surrender.

« Plus de mille HKers chantent ’Les Misérables’. Entendez-vous les gens chanter à l’aéroport international de Hong Kong avec leurs appels pour des élections libres et la démocratie. Voici le Ground Zero dans la guerre contre le régime autoritaire. C’est la raison pour laquelle nous ne nous rendons jamais ».

Avec Chris #EnoughIsEnough Griffith @streetnoodle 10 août 2019

This is the power of music & voice raised in song. When spoken word fails, the singing voice can succeed. Do you know Estonia’s history of choral groups & its ’Singing Revolution ?’ They sang the Soviet Union out of the Baltics. Music is power. Watch.

« C’est le pouvoir de la musique et de la voix évoquées dans les chansons. Lorsque la parole est un échec, la voix qui chante peut réussir. Connaissez-vous l’histoire des groupes choraux estoniens et sa ’révolution chantante’ ? Ils ont chanté l’Union soviétique dans les pays baltes. La musique c’est le pouvoir. Regarder » - Extrait de ce site : https://twitter.com/joshuawongcf/status/1160123743701590016?s=20

Environ 1,7 million de personnes défilent à Hong Kong pour la démocratie selon Aniket Shingane - 10:02 - 18 août 2019 – « Cela devrait inspirer les Américains à intensifier ! » - Référence : An estimated 1.7 million people are marching in Hong Kong for democracy. This should inspire Americans to step up ! – Extrait de https://twitter.com/NicholsUprising/status/1163133971754115074?s=20

Une tour de reconnaissance faciale est détruite par des manifestants à Hong Kong selon Jordan Sather @Jordan_Sather_11:18 - 24 août 2019 – Vidéo 0:27 – Source : Protestors in Hong Kong are cutting down facial recognition towers / https://twitter.com/Jordan_Sather_/status/1165327628825284610?s=20

Compte-rendu de la manifestation dans les rues de Hong Kong par YL @byulie2- 10:33 - 26 août 2019

Shang Lian Deng a vu une prise de vue d’une personne avec un fond d’écran étroit https://lih.kg/1487145 - 上連登見到個wallpaper post 一人一張用緊嘅wallpaper https://lih.kg/1487145  - 分享自 LIHKG 討論區 偷左幾張 好L靚啊啊啊 #HongKongProtests - Partagé depuis le forum de discussion de LIHKG - Zone de discussion. Quelques-unes des photos captées à gauche 靓 ah ah ….#HongKongProtests - Photos accesibles : A, B, C… - Extrait de ce site : https://twitter.com/byulie2/status/1166040953284485121

Les manifestations de rue à Hong Kong sur des réseaux sociaux - Septembre 2019 (Textes et vidéos).

Les étudiants de Hong Kong quittent l’école alors que les manifestations se propagent dans la salle de classe - « Ce mouvement n’est pas une rébellion, c’est un appel à la justice ». Origine : Hong Kong’s Students Skip School as Protests Spread to the Classroom - “This movement is not a rebellion, it is a cry for righteousness” by Diana Chan Sep 2 2019, 8:35pm - Photo

Suivre la totalité des évènements de rue à Hong Kong [souvent bruyants et violents] sur ce site en chinois et anglais : https://www.vice.com/en_us/article/xwne9w/hong-kong-protesters-were-attacked-with-fireworks-fired-from-a-moving-car

Retour au sommaire

Rubrique C – La politique française pour insuffler l’IA dans quelques secteurs

10.
Communiqué de presse - Publication « Intelligence artificielle – Etat de l’art et perspectives pour la France » - Document officiel ‘entreprises.gouv.fr - 2019

L’intelligence artificielle (IA) devient un enjeu majeur pour l’économie et la société françaises. La Direction générale des entreprises (DGE), qui pilote le volet économique de la stratégie nationale pour l’IA, le Commissariat général à l’égalité des territoires (CGET) et Tech’in France ont par conséquent confié au cabinet Atawao, la réalisation de l’étude Pipame « Intelligence artificielle – Etat de l’art et perspectives pour la France ». Cette étude a été présentée lors du Rendez-vous du Pipame « Tirer pleinement profit du potentiel de l’intelligence artificielle en France », organisé ce mardi 19 février 2019 à Bercy.

Ayant pour but d’enrichir la réflexion globale des pouvoirs publics et des professionnels sur le développement de l’IA, ce rapport propose un classement et une analyse des 14 secteurs économiques français potentiellement les plus impactés par l’IA : administrations publiques, services financiers, agriculture, services juridiques, sécurité des biens et des personnes, commerce de détail, professions libérales et services professionnels, télécommunications, loisirs et médias, synthèse du chapitre, santé, industrie, transport et mobilité ainsi qu’énergie et environnement. Parmi ces 14 secteurs, les quatre particulièrement touchés par l’IA ont été étudiés de manière plus approfondie :

  • Le secteur de la santé qui est l’un des plus dynamiques en matière d’IA, notamment dans le domaine de la médecine préventive ou du diagnostic médical. L’étude recommande de créer des zones d’expérimentation à l’échelle d’un hôpital ou d’un réseau de soins, et met l’accent sur la nécessité d’accéder à d’importants volumes de données de qualité pour permettre l’innovation. Sur ce point, le Gouvernement a déjà lancé le Health Data Hub en octobre 2018, dispositif unique de partage entre producteurs et utilisateurs de données de santé. Il doit faire de la France un des leaders mondiaux des données de santé.
  • Le secteur de la mobilité qui bénéficiera également des apports de l’IA, en particulier grâce à la conduite autonome. Plusieurs freins à son développement ont été identifiés et doivent être levés rapidement, avec, par exemple, la création de zones d’expérimentation à l’échelle d’une ville ou d’une situation de transport à risque telle qu’une autoroute ou une zone montagneuse.
  • Les secteurs de l’énergie et de l’environnement, dont les effets de l’IA ont déjà été constatés, avec notamment le pilotage des réseaux électriques intelligents, les stratégies d’efficacité énergétique ou encore l’anticipation des chocs liés au changement climatique. La France dispose de nombreux atouts grâce à la présence sur son territoire de groupes d’ampleur mondiale et de PME et startups innovantes dans ce domaine. Il s’agit à présent de stimuler la production de données environnementales chez les industriels notamment.
  • Le secteur industriel, où le potentiel d’applications de l’IA, variable selon le type d’industrie, peuvent offrir un fort potentiel à des startups ou des PME françaises, notamment dans le contrôle qualité ou la maintenance prédictive.
    L’analyse de l’ensemble des secteurs (bilan macroscopique des besoins, de l’offre en IA existante et des opportunités créées par elle) permet d’établir que les quatre secteurs dont l’analyse a été approfondie et celui de la sécurité des personnes et des biens peuvent faire l’objet d’une stratégie de leadership mondial.

Cette étude montre que l’IA pourrait représenter de réelles opportunités pour la France, à condition qu’elle encourage son développement. Pour cela, le rapport formule plusieurs recommandations pour d’une part, favoriser la création de jeux massifs de données et faciliter l’accès à ces données aux acteurs économiques, et d’autre part soutenir le développement de d’expertises nationales en IA, notamment :

  • créer un cadre légal d’expérimentation à partir de données afin de faciliter l’accès en temps et en procédure ;
  • créer des zones d’expérimentation à grande échelle pour tester en « grandeur nature » des solutions innovantes basées sur l’IA : un hôpital pour les solutions en santé, une ville pour les solutions de mobilité, un quartier pour les solutions de gestion de l’énergie ;
  • créer un marché protégé pour les startups afin de favoriser l’émergence de sociétés viables économiquement ;
  • encourager des projets centrés sur les assistants intelligents, dans le but de proposer une solution de facilitation des besoins quotidiens du grand public.
    Cette étude sera une source d’inspiration pour enrichir la stratégie nationale pour le développement de l’IA, annoncée par le Président de la République en mars dernier, pour laquelle 1.5 milliard d’euros seront consacrés sur l’ensemble du quinquennat.

Télécharger : L’étude Pipame Le programme du rendez-vous du pipame Le communiqué de presse

Accès directs : divers sites à retrouver à partir de la source

Le portail de la DGE ! Plan du site Mentions légales Saisir la DGE par voie électronique (SVE) Accessibilité Archives des anciens sites

L’Actu de la DGE : Fils d’actualités (Flux RSS) Communiqués de presse Appels à projets Événements de la DGE La Dge & vous Rapport d’activité - Perspectives

Sites de Bercy : Économie Pôles de compétitivité France Num : Entreprises, passez au numérique

Autres sites :

Source : https://www.entreprises.gouv.fr/etudes-et-statistiques/publication-de-etude-intelligence-artificielle-etat-de-art-et-perspectives

Retour au début du sommaire

11.
Etude - Intelligence Artificielle – État de l’art et perspectives pour la France - Publié le 21/02/2019 – Document officiel Commissariat général à l’égalité des territoires, ‘cget.gouv.fr’ - 1èrepage de couverture

Faire de la France un acteur majeur de l’intelligence artificielle (IA) est l’ambition de la stratégie nationale présentée en mars 2018 par le président de la République. La dynamique d’innovation et d’investissement est forte dans le domaine de l’IA qui est sujet à une concurrence mondiale intense. Acteurs privés et publics ont multiplié par dix leurs investissements au cours des cinq dernières années afin de maîtriser cette technologie stratégique, porteuse de promesses.

Conscients des très forts enjeux liés à l’IA, la Direction générale des entreprises (DGE), le Commissariat général à l’égalité des territoires (CGET) et TECH’IN France ont confié à ‘Atawao Consulting’ l’étude « Intelligence Artificielle – État de l’art et perspectives pour la France ». Après un état de l’art des différentes technologies du domaine, l’étude propose une méthode de classification des secteurs potentiellement les plus transformés par l’essor de l’intelligence artificielle et établit une analyse macroscopique de son adoption par ceux-ci.

Elle approfondit ensuite cette analyse pour quatre secteurs : Énergie et environnement - Transport et logistique – Santé - Industrie

Pour chacun de ces quatre secteurs, un bilan des opportunités générées par l’IA est établi et une stratégie cible à adopter est proposée. Dans sa dernière partie, l’étude dessine une feuille de route ainsi que des recommandations sectorielles et transverses qui permettront à la France et à ses entreprises de relever les défis en matière d’intelligence artificielle.

Pour en savoir plus :

Intelligence Artificielle – État de l’art et perspectives pour la France – Étude - 2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives.pdf

Intelligence Artificielle – État de l’art et perspectives pour la France - Synthèse de l’étude - 2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives-synthese.pdf

Thématiques liées à l’article : Cadre de vie et mobilités Transports Développement social Santé Economie / Emploi / Innovation Innovation

Sur le même thème : Les Contrats de plan État-Région -Retrospective 2018 - Découvrez le rapport d’activité du CGET ! -Les contrats de ville

Accès rapides : Subventions de la politique de la ville Observatoire des territoires Observatoire national de la politique de la ville Base documentaire de la politique de la ville Carrefour des innovations sociales Lab Politique de la ville Lab Périurbain Lab Innovation et territoires Conseil national des villes Télétravailler.fr SIG Ville Europe en France Urbact

Agenda :

Du 10/09/2019 au 10/09/2019 à Paris - Séminaire « Économie sociale et solidaire et politique de la ville »

Du 24/09/2019 au 26/09/2019 à Paris - 80e congrès de l’USH

24/09/2019 à Valence TGV (26) - Séminaire « Réciprocité et transactions territoriales : nouvelle donne du dialogue rural/urbain »

Du 04/10/2019 au 06/10/2019 à Saint-Dié-des-Vosges (88) - 30e édition du Festival de géographie

Du 17/10/2019 au 18/10/2019 à Aubervilliers (93) - Formation sur les outils financiers de l’Anru - Voir tout l’agenda

Voir tous les dossiers

Liens : Gouvernement https://www.gouvernement.fr/- Ministère de la Cohésion des territoires et des Relations avec les collectivités territoriales
http://www.cohesion-territoires.gouv.fr/

Le CGET : Missions Organisation Modes d’intervention Partenaires institutionnels Aides et subventions / Appels à projets Marchés publics Nous rejoindre Contacts Actualités ESPACE PRESSE

Territoires : Régions Métropoles Périurbain(s) Quartiers de la politique de la ville Ruralités Les villes moyennes et les bourgs-centres, lieux d’équilibre du territoire Montagne Territoires à enjeuxOutre-mer

Thématiques : Services au public Économie / Emploi / Innovation Citoyenneté Égalité femmes-hommes Cadre de vie et mobilités Éducation Lutte contre les discriminations Europe Numérique Développement social Transition écologique

Ressources : Publications Etudes et évaluations / Observation / Prospective Ressources documentaires Chroniques Evènements Cartothèque Photothèque Vidéos Infographies

Newsletter - La lettre d’information de la politique de la ville et des territoires - Haut du formulaire

Bas du formulaire

Voir le dernier numéro de la lettre d’information

Source : https://www.cget.gouv.fr/ressources/publications/intelligence-artificielle-etat-de-l-art-et-perspectives-pour-la-france

Retour au début du sommaire

12.
Étude comparative internationale - Stratégies nationales en matière d’intelligence artificielle - Contributions des services économiques des pays suivants : Allemagne, Canada, Estonie, États-Unis, Israël, Italie, Royaume Uni.

A consulter à partir d’ici :

PDF - Stratégie nationales en matière d’intelligence artificielle - Direction ...https://www.tresor.economie.gouv.fr › Articles › files

Retour au début du sommaire

13.
Qu’est-ce qui se cache derrière le concept de French Tech selon Wikipédia ?

Le logo de la French Tech

La French Tech est un label français attribué à des pôles métropolitains reconnus pour leur écosystème de startups, ainsi qu’une marque commune utilisable par les entreprises innovantes françaises.

La French Tech vise notamment à donner une identité visuelle commune forte aux startups françaises, ainsi qu’à favoriser l’échange entre elles1.

Lille, ville totem et historique de la French Tech, a été labellisée Capitale French Tech le 3 avril 20192 notamment pour le rôle du pôle d’activités EuraTechnologies.

L’espace French Tech Central, hébergé à la station F à Paris, constitue le premier espace de co-working inter-administrations français destiné aux entrepreneurs de la nouvelle économie.

Sommaire

Neuf villes françaises ont reçu le label French Tech en novembre 2014 lors d’une première vague de labellisation3,4. Certaines villes comme Strasbourg et Mulhouse ont préféré attendre pour déposer un dossier plus tard5.

En janvier 2015, Axelle Lemaire a annoncé un budget de 15 millions d’euros afin de développer l’attractivité de la French Tech à l’international6,7. La Bpi annonce également apporter 200 millions d’euros à partir de 2015, sous la forme de subventions6. Elle a également annoncé la mise en place des French Tech Hubs dans les grandes métropoles internationales telles que Tokyo, New York, San Francisco, Londres, Tel Aviv et Sao Paulo 8. La même année, un pavillon French Tech est installé au Dublin Web Summit, où se réunissent 18 start-up françaises, triées sur le volet par un jury d’experts. En Octobre 2016, Santiago du Chili a rejoint le réseau international de la communauté FrenchTech, avec l’aide de l’ambassade de France au Chili9.

En 2016, la French Tech continue l’expansion de son rayonnement à l’étranger, notamment aux États-Unis d’Amérique, où des entreprises labellisées French Tech faisaient partie de la plus grande délégation étrangère au Consumer Electronics Show 2016 avec un total de 210 entreprises françaises présentes, dont 190 startups issues directement du mouvement French Tech10,11.

À partir de juillet 2017, la mission French Tech sera installée dans un espace de 1 000 m2 au sein de l’incubateur Station F12. Cet espace accueille à partir de la rentrée 2017 un ensemble de 30 administrations destinées à apporter une réponse complète aux besoins des start-uppers. Cette offre de service a été complétée de différentes innovations publiques créées par les administrations dans le cadre d’un appel à projets lancé au titre du Programme d’Investissements d’Avenir [archive].

Le 25 mai 2018, Kat Borlongan est nommée directrice de la French Tech en remplacement de David Monteau13,14.

En octobre 2018, Mounir Mahjoubi a annoncé que la stratégie French Tech allait se recentrer sur les scale-ups, la tech for good et la mixité sociale15.

Le 3 avril 2019, Lille reçoit la distinction Capitale French Tech en même temps que 13 autres grandes villes françaises telles que Aix-Marseille, Bordeaux et Nantes entre autres16,17.

Villes labellisées

Photo - Le Mabilay, siège de la French Tech Rennes Saint-Malo

Le réseau French Tech est principalement basé en France métropolitaine ; il compte en 2016 treize métropoles labellisées en leur nom. À partir de 2015 sont mis en place les réseaux thématiques French Tech auxquels appartiennent les métropoles labellisées mais également d’autres écosystèmes locaux. Toutefois l’appartenance à un réseau thématique French Tech ne confère pas le label à la métropole concernée.

En novembre 2014, neuf métropoles (Aix-Marseille, Bordeaux, Grenoble, Lille, Lyon, Montpellier, Nantes, Rennes et Toulouse) sont labellisées3.

En juin 2015, quatre nouveaux « écosystèmes » sont labellisés :

Initialement prévues pour le printemps 201621, de nouvelles labellisations pour des réseaux thématiques sont annoncées le 25 juillet 2016 à Laval, où les 13 métropoles French Tech sont également confirmées par Emmanuel Macron, ministre de l’Économie et du Numérique, et Axelle Lemaire, secrétaire d’État chargé du numérique22. Les réseaux thématiques sont au nombre de neuf : HealthTech : BioTech MedTech e-sante ; IoT Manufacturing ; EdTech Entertainment ; CleanTech Mobility ; FinTech ; Security Privacy ; Retail ; FoodTech. Outre les métropoles French Tech, ils rassemblent les pôles de développement suivants : Alsace, Amiens, Angers, Avignon, Chalon-sur-Saône, Clermont-Ferrand, Dijon, Grand Besançon Métropole, Hossegor - Saint-Jean-de-Luz, Laval, La Réunion23, Le Mans, Limoges24,25, Angoulême - La Rochelle – Niort - Poitiers, Nogent / Haute Marne, Reims, Saint-Etienne, Saint-Quentin, Tarbes, Toulon, Vendée.

La French Tech Rennes Saint Malo

Labellisée parmi les premières villes en 2014, Rennes s’est associée à la Ville de Saint Malo. Un bâtiment Totem a ouvert en septembre 201626 sur 2000 m² proposant 3 étages : un start-up hôtel qui regroupe plusieurs start-up rennaises, un étage dédié au travail collaboratif et un étage permettant de recevoir des événements.

La French Tech Rennes Saint Malo sponsorise un trimaran.

A l’étranger, des villes comme Londres en Grande-Bretagne, Hong Kong ou encore Shenzhen en Chine, font partie des French Tech Hubs officiellement labellisés.

Start-up labellisées Frenchtech

Parmi les start-up labellisées FrenchTech, on peut citer Wizbii, Exotec, Activus Group, Carjoy, Confqual SAS...

Les français Voodoo, Ketchapp ou Gameloft étaient tous trois parmi le top 6 des éditeurs numériques mobiles les plus vendus sur Google Play en 2018 (N°1 : Voodoo, N°5 : Ketchapp et N°6 : Gameloft)27.

Article complet avec notes et références : https://fr.wikipedia.org/wiki/French_Tech

Retour au sommaire


14.
Label French Tech Culture autour d’Avignon, vallée du Rhône et Vaucluse

La région d’Avignon, la vallée du Rhône et le Vaucluse occupent des positions de leadership culturel à l’échelle européenne et mondiale. Le projet FRENCH CULTURE TECH a pour stratégie de croiser ses compétences avec un développement économique et territorial autour du numérique à partir d’un écosystème existant.

  • La région d’Avignon devient la principale métropole culturelle européenne et mondiale chaque été en acceuillant les plus grands festivals européens d’arts vivants.
  • Le Vaucluse enregistre 8 millions de nuitées par an ce qui en fait un des départements métropolitains à densité la plus élevée de nuitées par habitant.
  • La vallée du Rhône est l’un des principaux terroirs mondiaux de la gastronomie, de l’agriculture, du ‘biovégétal’ et de la viticulture.
    L’objectif est de créer un « living lab » numérique européen unique autour des applications liées à la culture en général et aux grands événements culturels saisonniers, ainsi qu’autour de l’e-tourisme massif de type UNESCO, et des ressources du terroir : gastronomie, agriculture, viticulture, biovégétal.

    L’écosystème numérique actuel d’Avignon est riche de nombreuses entreprises innovantes, sur une base de 700 entreprises en filière numérique. Cet écosystème est endogène : il n’est pas constitué de succursales de sociétés parisiennes ou internationales mais il est porté par des entrepreneurs « champions » locaux.

Le projet prévoit la création d’un dispositif d’accélération et de capital-risque pour les start-ups en création et en croissance dans les filières spécifiques FRENCH CULTURE TECH.

http://AGROPARC - Technopôle d&#03...

AGROPARC - Technopôle d’AVIGNONwww.agroparc.com

Résultat de recherche d’images pour ’agroparc’

Source : http://www.agroparc.com/fr/nos-domaines-activites/label-french-tech-culture-10831.html

Retour au sommaire

15.
Cinq milliards d’euros pour transformer les start-up françaises en licornes Par Léna Corot | Publié le 18 septembre 2019 à 11H06 mis à jour le 18 septembre 2019 à 11H36 – Document ‘usine-digitale.fr’ - Start-upFrench TechEconomie numérique - Photo - 5 milliards d’euros pour transformer les start-up françaises en licornes © Twitter @cedric_o

A l’occasion du ‘France Digitale Day,’ Emmanuel Macron a annoncé que les investisseurs institutionnels français allaient engager 5 milliards d’euros dans les trois prochaines années afin de contribuer aux levées de fonds des start-up françaises rendues dans leurs derniers stades de financement.

Objectif : au moins 25 licornes françaises en 2025.

Les investisseurs institutionnels français vont ’engager dans les trois prochaines années 5 milliards d’euros dans les fonds français spécialisés sur la technologie’. L’annonce a été faite par Emmanuel Macron, mardi 17 septembre 2019, à l’occasion du France Digitale Day, la conférence internationale de l’écosystème French Tech, qui se tient à Paris.

Dans le détail, deux milliards d’euros vont abonder les fonds de capital-risque dits ’late stage’ et trois milliards d’euros seront redirigés vers les fonds gérés par des gestionnaires d’actifs spécialisés dans l’investissement coté. Le but étant d’avoir suffisamment de fonds pour investir dans les start-up qui entrent dans leur dernier stade de financement, c’est-à-dire celles qui cherchent à lever entre 50 et 100 millions d’euros. ’La bataille des capitaux est essentielle’, a justifié le président de la République. ’Si on veut gagner la bataille […] on doit réussir à lever plus vite, plus fort, plus de capitaux’.

Avoir 25 licornes en 2025

L’objectif affiché est de faciliter l’éclosion de nouvelles licornes françaises et d’en avoir au moins 25 en 2025. Une ambition forte justifiée par les montants croissants levés par les start-up françaises : ’2,8 milliards en 2017, 3,6 milliards en 2018 et plus de 5 milliards sans doute cette année’, liste Emmanuel Macron. Surtout, le nombre de levées de plus de 50 millions d’euros se chiffrent à 11 en 2018 et 13 depuis début 2019, année qui a vu 4 nouvelles licornes faire leur entrée dans l’écosystème français (Meero, Ivalua, Kyriba et Doctolib).

Le gouvernement espère que les retombées économiques seront là. Si ces pépites françaises demandent des financements, c’est aussi pour créer des emplois. En France, les 40 start-up les plus prometteuses (listées dans le ’Next 40’ dévoilé mardi 18 septembre 2019 par le secrétaire d’Etat au Numérique, Cédric O) vont créer ’au moins 7 000 emplois dans les prochains mois’, estime Emmanuel Macron.

Le recrutement des talents et la formation

Ces financements français pourront toujours être ’doublés avec des investisseurs étrangers’, précise Emmanuel Macron qui se dit ’ouvert aux investisseurs chinois et américains’ mais ne veut pas ’dépendre d’autres acteurs pour les grands choix technologiques que seront les nôtres’. Car en créant ce fonds de 5 milliards d’euros, le gouvernement espère favoriser l’émergence de nouvelles technologies dans tous les secteurs. ’La bataille qu’on est en train de mener […] est celle de souveraineté […]’, a-t-il justifié. ’Si on ne construit pas les champions dans tous les nouveaux segments […], nous ne serons plus souverains’.

Pour faciliter l’émergence de ces licornes et la réussite des start-up françaises, le gouvernement met en avant un deuxième axe de développement sur le recrutement des talents et la formation. Emmanuel Macron a affirmé vouloir ’consolider’ le French Tech Visa, sans en dire plus. Le French Tech Visa est la possibilité offerte aux entreprises innovantes souhaitant recruter des talents étrangers de demander un visa simplifié. Plus récemment encore, le secrétaire d’État en charge du Numérique Cédric O a annoncé le lancement du French Tech Tremplin. Un programme, doté d’un fonds de 15 millions d’euros, qui vise à favoriser la diversité et attirer des talents issus tous les milieux sociaux.

A lire aussi :

Voici la liste des 13 Capitales et 86 Communautés French Tech

La French Tech entre dans sa phase 2. Et voilà ce qui va changer...

Quelles seront les prochaines licornes françaises ?Léna Corothttps://www.usinenouvelle.com/artic...@lenacorothttps://www.usinenouvelle.com/artic...

L’Usine Digitale : Actualité Web, High-tech, Cloudhttps://www.usine-digitale.fr -Publicité Mentions légales Contactez-nous RGPD

Résultat de recherche d’images pour ’usine-digitale.fr’

Source : https://www.usine-digitale.fr/editorial/5-milliards-d-euros-pour-transformer-les-start-up-francaises-en-licornes.N885459

Retour au sommaire

16.
Que font les startups du Next40, les fleurons de la French Tech ? Par François Manens - 18/09/2019, 14:10 –

Voir les logos > (Crédits : Ministère de l’Economie) - L’indice Next40, liste de prestige de 40 startups sélectionnées par l’écosystème, a été dévoilé. Ces pépites profiteront des avantages du French Tech 120 et seront mis en avant par la French Tech, y compris à l’international.

La ‘French Tech’ veut se rapprocher de la Bourse. A l’occasiondes annonces d’Emmanuel Macron sur les nouvelles capacités de financement dont se dote la French Tech, le gouvernement a dévoilé les 40 startups de l’indice Next40. Ces pépites, sélectionnées sur la base de critères très variés et non cumulatifs par un jury indépendant, ont en point commun l’hyper-croissance. On retrouve les sept licornes françaises (valorisées chacune à plus de 1 milliard de dollars), et les startups ayant levé le plus de fonds sur ces trois dernières années. Le gouvernement espère que 20 licornes supplémentaires émergeront de cette liste -ou du moins de l’écosystème- d’ici à 2025. Pour les autres, cet indice à connotation boursière a aussi vocation à rappeler une des potentielles prochaines étapes pour ces startups géantes : l’introduction en Bourse.

Critère flous mais têtes d’affiches présentes

Le Next 40 est avant tout un enrobage pour la visibilité des plus belles pépites de la French Tech. Il donne aussi accès aux avantages d’accompagnement très intéressants de la French Tech 120, composé de 80 autres pépites, qui reprend notamment les bases du Pass French Tech pour appuyer la croissance des scale-up.

Au lancement du jury de sélection en février, les critères indiqués par le gouvernement pour participer étaient variés : nombre d’utilisateurs plancher, appartenance au Pass French Tech, levée de fonds minimum de 10 millions. Cette fois-ci, les critères communiqués évoquent la valorisation supérieure au milliard d’euros (les licornes sont d’office qualifiées), la taille de la levée de fonds, ou encore la preuve d’un chiffre d’affaires supérieur à 5 millions. Surtout, ces critères sont amenés à évoluer. Avec des levées de fonds recordsau premier semestre, et une rentrée sur les chapeaux de roues, les prétendants à cet indice sont amenés à être plus nombreux.

Lire aussi : Startups : l’Etat lance le French Tech 120, le guichet unique des scale-up

  • Les sept licornes en tête de proue
    Erigées en exemple à suivre pour le reste de la French Tech, les licornes françaises font bien évidemment partie du Next40. On retrouve les quatre plus anciennes, vente-privee.com (plateforme d’e-commerce), OVH (services de cloud), Blablacarhttps://www.latribune.fr/technos-me...(plateforme de covoiturage) et Deezer (plateforme de streaming musical). Elles ont été rejointes plus tôt dans l’année par Meero (plateforme de photos retouchées automatiquement), Doctolib (plateforme de rendez-vous médicaux) et Ivalua (suite logiciel d’aide au management des dépenses), portées par des levées de fonds de respectivement 205 millions, 150 millions et 60 millions d’euros.
  • Le modèle de la marketplace derrière 5 pépites
    Les marketplaces sont des plateformes sur lesquelles des vendeurs extérieurs peuvent vendre leurs produits, en échange d’une commission. Le client a ainsi un accès unique, tandis que les vendeurs ont de la visibilité auprès d’un nombre de client bien plus importante que s’il était seul. Ce modèle a fait une partie du succès d’Amazon, et les startups françaises ont su s’en saisir pour créer des places de marché sectorielles. Dans le Next40, on retrouve ainsi BackMarket (produits électroniques reconditionnés), Evaneos (voyage sur-mesure), ManoMano (bricolage et jardinage) et Vestiaire Collective (accessoires et vêtements de luxe d’occasion). Mirakl quant à elle, construit les marketplaces de ses clients, et leur propose des outils de gestion.
  • Les startups françaises très présentes dans les ressources humaines
    Ces pépites de la French Tech sont moins connues du grand public, mais elles équipent les ordinateurs de nombreuses entreprises. Le Next40 compte plusieurs acteurs du secteur des ressources humaines : JobTeaser (plateforme de recrutement de jeunes diplômés), Payfit (automatisation du traitement des dépenses), ou encore HR Path et Talentsoft (plateformes de gestion des ressources humaines). Dans un registre proche, l’application de Klaxoon vise à optimiser le travail collaboratif.
  • Quatre startups pour optimiser le marketing
    Le secteur du marketing est également bien représenté dans cette première promotion de l’indice, avec Sendinblue (outils de gestion du marketing digital), Contentsquare (amélioration de l’expérience client) et iAdvize (chatbots de vente). Believe, de son côté, s’est imposé comme un des leader mondiaux de la distribution musicale numérique et des services de promotion pour les artistes et labels indépendants.
  • Quelques percées des ‘deep techs’
    Les deep techs (ou technologies de rupture) ont besoin de plus de financement et grandissent plus lentement. Elles sont logiquement moins représentées que les plateformes, mais quelques unes se sont glissées dans le Next40. On retrouve ainsi les technologies brevetées d’Ÿnsect (nourriture et fertilisants à base d’insectes), de BioSerenity (dispositifs médicaux connectés pour le suivi de patients), l’ordinateur dans le cloud Shadow, proposé sur abonnement par Blade, ou la connectique embarquée de Sigfox (par ailleurs un des leaders européens de l’internet des objets).

En plus de ces secteurs porteurs, les autres startups du Next40 font preuve de la diversité de l’écosystème français : Voodoo (développeur et éditeur de jeux vidéo), Vade Secure (protection des emails), Recommerce (reconditionnement de smartphone), Devialet (enceintes très haut de gamme), Finalcad (transformation numérique dans le BTP), Frichty (livraison de nourriture), Home Exchange (échange temporaire de maisons), OpenClassrooms (plateforme de formation aux métiers en tension), ethttps://www.latribune.fr/entreprise...CityScoot (application de location de scooters électriques).

Le gouvernement espère faire émerger plusieurs leader mondiaux, créateurs d’emplois sur le territoire, parmi les startups de l’indice, pour venir couronner l’écosystème développé depuis plusieurs années et incarné par le coq de la French Tech..

La Tribunehttps://www.latribune.fr

Résultat de recherche d’images pour ’latribune.fr’

Source : https://www.latribune.fr/technos-medias/innovation-et-start-up/que-font-les-startups-du-next40-les-fleurons-de-la-french-tech-828343.html

Retour au début du sommaire

Retour à l’introduction

Retour au début du dossier

Publications antérieures sur l’IA postées sur ISIAS

’Faire connaissance avec l’Intelligence Artificielle (IA)’ par Jacques Hallard , vendredi 30 novembre 2018

’La nébuleuse des opérateurs économiques du numérique de l’électronique et des télécommunications’ par Jacques Hallard , dimanche 30 décembre 2018

’Offres et perspectives du numérique et de l’IA, usages et acceptabilité des utilisateurs, clients et consommateurs ; actions politiques et administratives en cours’ par Jacques Hallard , mardi 16 avril 2019 par Hallard

Conférence de Jacques Hallard, Ingénieur CNAM, sur l’Intelligence artificielle : miracle ou mirage, promesse ou périls ? Le vendredi 26 Avril 2019 à 18h30 à la Salle des Fêtes d’Eygalières 13 , lundi 22 avril 2019

’Etat de l’art et prospective concernant l’intelligence artificielle (IA) dans les domaines artistiques (arts numériques) en France, au Québec Canada et en Californie’ par Jacques Hallard avec Bastien Maleplate, mardi 03 septembre 2019

Retour au début du sommaire

Retour à l’introduction

Retour aux informations préliminaires

Retour au début du dossier


Auteurs : Jacques HALLARD, Ingénieur CNAM, consultant indépendant et Bastien (conseils scientifiques et techniques) – 22/09/2019

Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales

http://www.isias.lautre.net/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS IA L’incorporation des intelligences artificielles (IA) dans les arts numériques, les médias et les réseaux sociaux ; la politique française pour implémenter l’IA.2

Mis en ligne par Pascal Paquin de Yonne Lautre, un site d’information, associatif et solidaire(Vie du site & Liens), un site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti.

http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931

— -