La 4e édition de la Digital Tech Conference s’est une nouvelle fois tenue dans les somptueux décors de l’Opéra de Rennes, réunissant les plus éminants spécialistes des #DigitalAssistant #DigitalFood & #DigitalLove. Tout un programme !

« What does it mean to be Human in this age of technology ? Do we need to live in a serotonine society ? » Rudy de Waele (Human Works Design)

La Digital Tech Conference, rendez-vous désormais incontournable qui présente les grandes tendances du digital, est co-organisée cette année par le Poool et l’INRIA Rennes. Le programme, structuré autour de 3 thématiques complémentaires, a été particulièrement dense. En voici une synthèse toute personnelle.

#DigitalFood

Un sujet qui a priori m’emballait moins que les 2 autres, mais dont je note la riche prestation de Yael Rozencwajg (Blockchain Israel) concernant La blockchain dans l’industrie agroalimentaire. Bien que la question de l’emploi se pose clairement, Pazzi, le robot pizzaiolo, et notamment l’intervention passionnée du chef Thierry Graffagnino (Ekim), a également fait forte impression… et nous a tou(te)s mis l’eau à la bouche ! Avec, en bonus, l’annonce de l’ouverture mondiale en mai 2019 du premier restaurant du robot Pazzi à Paris !

#DigitalAssistant

« Voice interfaces can free us from screens » Yann LECHELLE (Snips)

La présentation de Rudy de Waele nous a montré a quel point le développement des assistants virtuels est exponentiel, dispositif que j’avais eu l’occasion d’étudier en 2012 lors d’une recherche au CELSA. Il nous a notamment présenté les plus réalistes, tel celui développé par l’agence chinoise de presse Xinhua, « première présentatrice » basée sur une IA qui « lit » les news « sans relâche » :

— Alexa, Amazon

Nicolas Maynard (Amazon)

Nicolas Maynard (Amazon) nous a présenté comment Amazon travaille à créer une expérience française pour leur IA assistant vocal Alexa.

Après des références assez classiques aux mythologies de la science-fiction (Star Trek), nous ont été présentés les leviers de développement historiques d’Alexa : développement du Machine Learning → appui sur le Cloud Computing Amazon → évolution des interfaces vocales (la voix comme « interface naturelle ») → Alexa et Echo sortent en 2014, composé de 14 micros multi-directionnels → juin 2018 : lancement d’Alexa en France

Au-delà d’une simple traduction, Nicolas nous expique qu’Amazon a du travailler sur une véritable expérience, étayée par 6 points de difficulté :

  • compréhension : apprendre « les français » (régions, accents…)
  • personnalité : définir la « personnalité française » = selon Amazon « cordiale, cultivée & informée »
  • culture et références : histoire, géographie, politique, sport, événements, langue française, recherche locale…
  • voix : développer une voix locale fluide (liaisons, prosodie…)
  • skills (applications tierces) : intégrer les usages du quotidien. La terminologie employée est tout à fait édifiente : des skills (« compétences, talents, habiletés »), terme habituellement employé pour une personne, utilisé pour définir des add-ons, des applications tierces, ce qui montre une certaine volonté d’humaniser les IA, face auxquelles finalement plus elles nous ressembleront et plus nous aurons le désir de communiquer avec elles… (économie de l’attention)
  • appareils connectés avec Alexa intégré : casques audio, enceintes, thermostat… Business model basé sur un service bien plus que sur un produit, laissant libre court aux multiples usages, même ceux que nous n’avons pas encore inventé…

Je note également la mobilisation des imaginaires liés au gaming : des easter eggs sont cachés dans Alexa, pour lesquels il s’agit de trouver les bonnes questions si l’on veut activer des contenus nouveaux.

— Deep Speech, Mozilla

Alexandre Lissy, Mozilla

Le projet Deep Speech / Common Voice, initié par Mozilla, et présenté par Alexandre Lissy, vise à produire des jeux de données vocales librement accessibles.

La navigation Web vocale est en profonde mutation. Son développement rencontre cependant certaines limites :

  • les assistants numériques (smartphone, enceinte connectée, mixed reality) doivent rester au service de l’utilisateur
  • le traitement de la voix est encore gourmand en calculs, souvent géré par des services tiers, nécessite bcp de données…

« Aux US, 20% des recherches sont initiées par la voix. En 2020, 30% des recherches se feront par la voix et sans écran » Alexandre Lissy (Mozilla)

L’objectif de Mozilla est clair, qui ambitionne 10.000h de données : « cassons les barrières d’accès aux données par la voix, pour tous ». Les choix qui étayent ce projet sont particulièrement structurants :

  • Utilisation fondamentale de licences libres, particulièrment la licence CC0 qui équivaut au Domaine Public
  • Décentralisation des données afin de garantir plus de pouvoir aux utilisateurs & contributeurs : les données sont ainsi faciles à obtenir, à partager, à utiliser…
  • projet entièrement réalisé avec les contributeurs, dès son lancement en 2017 => « Mozilla ne serait rien sans sa communauté » (startups, institutions, chercheurs, individuels…) Ex: des contributeurs kabyles (300 contributeurs, +95h collectées)

Enfin, en quelques chiffres, Deep Speech c’est 16 langues actives, 1200h validées, 110K contributeurs, des jeux de données téléchargés plusieurs centaines de fois par mois !

Source : Ouest-France


Vous souhaitez soutenir Deep Speech ?

  • Parlez-en !
  • Utilisez-le : enregistrez-votre voix et/ou validez les enregistrements d’autres contributeurs
  • Améliorez le corpus de texte en partageant en CC0
  • Construisez des outils innovants à l’aide du jeu de données de Deep Speech

— Home, Google

Jean-Philippe Bécane, Google

Jean-Philippe Bécane a abordé la question des assistants vocaux chez Google. Comme à l’accoutumée il a tout d’abord fait référence aux mythologies de la science fiction : d’Isaak Asimov, à Stanley Kubrick, sans oublier Star Trek.

« Les concurrents des assistants vocaux ? 60 ans d’imaginaire des gens ! », Jean-Philippe Bécane (Google)

L’objectif principal de Google (qui fête cette année son 20e anniversaire) est d' »organiser et de rendre utile à tou.te.s l’information du monde entier ». C’est dans ce cadre que s’est batit le développement des assistants vocaux : Voice Search (2009) + Knowledge Graph (2012) + Google Now (…) L’assistant Google vise quant à lui de « simplifier la vie » de tout un chacun, et de proposer une expérience « fluide » accessible sur +500 millions de devices, basé sur la promesse d’un usage « + intuitif, + actionnable et + personnel ».

Pendant les 2 années de mise au point de l’assistant, 4 enseignements clé sont à retenir :

  • la voix c’est l’action : les commandes sont + actives que dans la recherche traditionnelle
  • rechercher de nouvelles conversations : les assistants vocaux engagent 200X + de conversations qu’avec un moteur de recherche traditionnel
  • les routines importent beaucoup : de l’importance des « tooth brush products » (produits utilisés au moins 2x / jour)
  • la voix est universelle

#DigitalLove

Le sujet avait déjà fait parlé de lui lorsqu’en 2012 Camp’TIC a organisé à Lorient le Forum Amour & numérique. Au-delà, le sujet est très actuel, qui aborde la question du féminisme et de la sexualité, sans tabou, à l’instar de l’émission « Crac Crac » du truculent Monsieur Poulpe.

— Lara, Meetic

Xavier de Baillenx, Meetic

A la croisée des assistants vocaux et des #SexTech, Xavier de Baillenx nous a présenté Lara, « coach virtuelle » de Meetic, la « 1ère intelligence conversationnelle dans le dating ».

Bref historique du projet : initialement lancée sur Messenger → Match → simple funnel conversationnel (sans IA). Puis, Lara s’est spécialisé dans :

  • le service client : sur une base relativement standard d’arbre de décision
  • la recommandation de profils : détection de l’intention (R&D algorithme de détection de langage) & proposition de profils correspondants

Lara est ainsi devenue la « 1ère dating coach de Google Home » : la boucle est bouclée !

Son succès s’est bâti sur 2 crédos : « Ton & pertinence sont le nouveau design » + « Le contexte (linguistique & discursif) est la clé »

Les équipes de Meetic, qui œuvrent à de nouveaux métiers, travaillent à ce que Lara propose à l’avenir 1 chatbot pour différents canaux (texte & voix) ainsi qu’1 chatbot avec différents agents conversationnels (« router agent » : analyse les contextes, « greetings agent » : propose le meilleur scénario, « events agent » : propose un RDV, « menu agent » : propose le menu d’orientation…).

— Iris de Villars, La LoveTech

Iris de Villars, La LoveTech

Iris de Villars (La LoveTech) a abordé la question de la SexTech : vaste programme !

Elle nous a tout d’abord proposé un aperçu de quelques projets #SexTech actuels :

  • Autoblow AI : dont vous imaginez aisément l’objet, propose une expérience basée sur une AI, et atteint +488% de son objectif de financement participatif !
  • Two L(i)ps ou l’art du « vulve care »
  • Eros (blockchain) : promesse d’un Über de la prostitution
  • i.Con smart condom (2017) : le FitBit du sexe, pour accrocs au quantified self…
  • The cock Cam : pour les adeptes des selfies, captation et diffusion en direct au plus près des événements…
  • Oh Roma : casque sensoriel à superposer au casque RV afin de sentir des odeurs +/- intimes…

1er mariage célébré entre un humain (le Japonais Akihiko Kondo) et un avatar (la chanteuse virtuelle star Hatsune Miku)

Elle a ensuite évoqué l’intime nécessité d’envisager les #SexTech en lien étroit avec une démarche d’éducation :

  • O.school : une sorte de Doc & Difool digital, qui a du mal à séduire les investisseurs (avec seulement 800K$ de levée de fonds)
  • Make Love Not Porn : partage de vidéos pour montrer le « sexe du monde réel dans toute sa glorieuse, stupidement belle, désordonnée et rassurante humanité »

— Christel Le Coq, SexTech For Good / Lucile Crosetti, SexTechLab
Malek Aziri, Lovel / Aurélien Fache, Mathemagie

Digital Tech Conference, Battle

La seconde Battle mettant en scène une joute entre 2 équipes débattant sur le sujet « La France est-elle prête pour développer les #LoveTech ? » Les échanges furent riches, variés, drôles et pertinents à la fois. Au-delà des arguments percutants de chaque protagoniste, il faut retenir outre la difficulté de financement de projets #SexTech, notamment soutenus par les Women In Tech, que l’enjeu majeur réside dans le passage de la #PornTech à la #SexTech / #LoveTech !

— Polly Rodriguez, Unbound

Polly Rodriquez, Unbound

Polly Rodriguez (Unbound) s’est également faite remarquée pour sa présentation de la #SexTech : « la prochaine industrie aux milliards de dollars ».

Elle nous a notamment présenté le mouvement Women of SexTech, « communauté inclusive de femmes sexuellement positives qui changent le secteur de la technologie du sexe » et l’engouement qui accompagne ce projet. Pourquoi un tel intéret ?

  • culturel : s’inscrit dans la droite lignée de Sex in the City, Fifty shadows of grey, mouvement #metoo…
  • marché, qui représentera 52 milliards $ en 2022 ! : le marché chinois qui développe les produits manufacturés, l’impression 3D…

« Women are leading the way » Polly Rodriguez (Unbound)

Polly Rodriguez, Chief Executive Officer de Unbound, aborde elle aussi la difficulté face aux financements lorsque l’on est une Femme porteuse de projet #SexTech, les Ads Instagram censurés car non adaptés… Les tabous sont-ils encore persistants ? Le marché est-il saturé par les projets portés et financés par des Hommes ? La question a le mérite d’être posée…

Quel futur pour la #SexTech ?

Source : Future of Sex

#Interludes

Laptop conert

16 pinneapples

Parmi les quelques intermèdes musicaux, 16 pinneapples de Olga Maximova & Vincent de Malherbe a été un moment particulièrement entousiasmant. Sans oublier naturellement le premier temps de cette Digital Tech Conference : le Computer Orchestra, concert réalisé par ordinateurs et piloté par Marc Dubois via un capteur kinect.

Pour aller + loin