Cycle du hype de Gartner: L’IA, propulsée entre les mains de tous

Dans 10 ans, l’intelligence artificielle sera partout, et plus seulement entre les mains des professionnels, d’après Gartner. La démocratisation de l’IA est en effet l’une des cinq principales prédictions technologiques identifiées par l’entreprise de recherche et de conseil dans l’édition 2018 de sa fameuse courbe du « Cycle du hype ». Cette courbe montre les technologies émergentes et identifie leur position sur le cycle du hype.

Réalisé à partir de l’analyse de 2 000 technologies réparties ensuite en 35 domaines émergents, le rapport identifie cette année en particulier cinq tendances technologiques qui vont brouiller les frontières entre les humains et les machines.

Crédit: Gartner (août 2018)

L’IA, propulsée entre les mains de tous

En ce qui concerne l’intelligence artificielle, «les technologies d’IA seront pratiquement partout au cours des 10 prochaines années», prédit Gartner. « Ces technologies, qui permettent aux ‘early adopters’ de s’adapter à de nouvelles situations et de résoudre de nouveaux problèmes, vont être mises à la disposition des masses – démocratisées. Des tendances comme le cloud computing, la communauté des ‘makers’ et l’open source vont propulser l’IA entre les mains de tout le monde».

Un futur qui sera rendu possible par les technologies suivantes: l’AI Platform-as a-Service (PaaS)l’Artificial General Intelligence, la conduite autonome, les robots mobiles autonomes, les plateformes conversationnelles basées sur l’IA, les deep neural networks, les véhicules autonomes volants, les robots intelligents et les assistants virtuels.

Les nouvelles opportunités liées aux écosystèmes numérisés

Parmi les quatre autres principales tendances qui vont brouiller les frontières entre les humains et les machines, Gartner a également identifié «les technologies des écosystèmes numérisés qui font leur chemin rapidement vers le Cycle du hype», explique Mike J. Walker, vice-président de la recherche. «Les plateformes de type blockchain et IoT ont désormais atteint leur apogée et nous pensons qu’elles arriveront à maturité dans les cinq à dix prochaines années».

Le rapport prévoit ainsi que le passage d’un modèle technique d’infrastructure compartimenté vers un écosystème de plateformes pose les bases de l’émergence de nouveaux business models qui constitueront «un pont entre l’Homme et la technologie».

Le «do-it-yourself biohacking»

«Au cours de la prochaine décennie, l’humanité commencera son ère ‘transhumaine’: la biologie pourra alors être piratée en fonction du mode de vie, des intérêts et des besoins de santé », explique Gartner. La société sera alors amenée à se demander les applications qu’elle est prête à accepter et à réfléchir aux enjeux éthiques.

Pour le cabinet, cette tendance concerne quatre secteurs d’activité : les technologies d’augmentation, la nutrigénomique, la biologie expérimentale et le « grinder biohacking », mouvement dont les membres souhaitent améliorer leurs capacités physiques grâce à des implants cybernétiques «fait maison».

Les expériences transparentes et immersives pour une vie plus intelligente

L’étude cite également la catégorie des expériences transparentes et immersives. « La technologie continuera à devenir plus centrée sur l’Homme, au point de favoriser la transparence entre les personnes, les entreprises et les choses». Pour Gartner, cela permettra notamment aux hommes de travailler et de vivre de façon plus intelligente. Cette évolution sera possible grâce aux technologies suivantes : l’impression 4D, la maison connectée, le Edge AI, la technologie auto-réparatrice, les batteries d’anodes à base de silicium, la poussière intelligente (Smart Dust), le Smart Workplace et les écrans volumétriques.

L’infrastructure omniprésente

Cinquième et dernière tendance, l’infrastructure omniprésente. Comme l’explique Gartner, «les technologies prenant en charge une infrastructure omniprésente sont en passe d’atteindre le sommet et de progresser rapidement au sein du Cycle du hype. Les circuits intégrés propres à une application (ASIC) 5G et de réseau de neurones profonds, en particulier, devraient atteindre le plateau au cours des deux à cinq prochaines années».

#IA: Les assistants vocaux vont-ils signer la mort des écrans ? (Source: Maddyness)

par   
 Source: https://goo.gl/RvE2iU

Grâce aux enceintes connectées et aux assistants comme Siri et Cortana, on peut commander sa pizza ou gérer sa musique uniquement via la voix. Une interaction «beaucoup plus naturelle» que le texte, selon ses promoteurs. Mais est-ce vraiment le cas ?

Pendant des années, les entreprises tech ont tenté de nous débarrasser de la voix, ce mode de communication tellement ringard. Les appels téléphoniques allaient complètement disparaitre au profit des textos. Plus besoin d’appeler une compagnie de taxis quand on peut commander un VTC en quelques clics sur Internet. Fini les conversations avec votre conseiller bancaire quand celui-ci vous répond directement par chat sur le site de la banque.

Mais ça, c’était avant. Car aujourd’hui, les mêmes tentent de nous convaincre d’abandonner nos écrans pour tout diriger grâce à la voix. Les enceintes connectées Amazon Echo sont ainsi capables de diffuser la musique que vous lui demandez, d’appeler un correspondant automatiquement, de vous donner la météo et les informations du jour, de commander vos produits préférés ou même de vous conseiller un traitement si vous lui décrivez vos symptômes. Avec Siri, Apple ambitionne de la même façon d’éviter de passer par l’écran de l’iPhone. On peut par exemple lui demander «Lis moi les messages de maman» ou «De qui parle-t-on sur Twitter».

«Démocratiser l’accès la la technologie»

«La voix est une interface beaucoup plus naturelle que de taper sur un écran», rapporte Rand Hindi, créateur de la startup française Snips. Celle-ci promet de «démocratiser» l’accès à la technologie en rendant n’importe quel objet pilotable par la parole. «La voix nécessite deux fois moins d’efforts au cerveau que l’écrit», assure-t-il. «Plus besoin d’apprendre à vous servir d’un logiciel ou de lire un obscur mode d’emploi. Si je veux regarder un match de foot, plutôt que de chercher le programme télé, d’apprendre à utiliser la télécommande, il me suffit de demander à la télévision pour y avoir directement accès».

Selon lui, l’interface vocale permettra ainsi d’utiliser énormément plus d’appareils et de fonctionnalités. «Aujourd’hui le cerveau est complètement saturé par la prolifération d’objets et d’applications. On ne se rappelle même plus de toutes les applis installées sur notre téléphone». «L’interface vocale permettra aussi de toucher de nouvelles populations peu familiarisées avec l’écrit ou mal à l’aise avec les nouvelles technologies, comme les personnes âgées ou l’Afrique», estime pour sa part Luc Bretones, directeur du Technocentre d’Orange.

La nouvelle marotte des marques

En tous cas, les entreprises y croient. Plus de 100 000 chatbots ont ainsi vu le jour sur Facebook Messenger depuis avril 2016. Amazon aurait écoulé 10 millions de ses enceintes connectées aux Etats-Unis. Google vient de lancer la sienne en France et le HomePod d’Apple est prévu pour 2018.  Selon Gartner, 20% des interactions avec son téléphone auront lieu via des assistants personnels virtuels en 2019.

Soucieuses de ne pas rater cette prochaine «révolution», les marques se lancent à tout-va. Philips a été parmi les pionniers sur les enceintes connectées d’Amazon afin de permettre aux utilisateurs de régler leurs ampoules connectées par la voix. Voyage-sncf teste depuis 2016 la commande vocale via Alexa. Une équipe de neuf personnes au sein de l’entreprise a même été entièrement dédiée au «conversationnel». «On voit un véritable engouement de la part de nos clients», confirme Patrick Joubert, cofondateur de la startup Recast.ai, qui fournit des solutions de chatbot aux entreprises, comme Engie ou Europ Assistance.

0,1% du temps passé sur mobile

Malgré ces prévisions décoiffantes, la réalité est un peu moins rose. Selon Verto, spécialisée dans l’analyse de données consommateurs issues d’applications, Siri a perdu 15% d’utilisateurs en un an et leur engagement a diminué de moitié. Tous appareils confondus, les utilisateurs n’accordent que 12 minutes par mois à l’usage de ces assistants vocaux, soit moins de 0,1% du temps passé sur leur mobile. Même sur Alexa, seules 62% des 20 000 applications vocales n’ont aucune note, ce qui suggère qu’elles sont peu ou pas utilisées, rapporte le site Voicebot.ai. Parmi les raisons invoquées pour le non usage, 33% disent «être plus à l’aide avec l’écrit» et 20% ne pas avoir été convaincus par l’expérience, d’après une étude Creative Strategies. 19% n’ont simplement pas le réflexe de l’utiliser et ont même «oublié» qu’il existe.

Des usages limités à des interactions basiques

«Aujourd’hui on est plus proche du serveur vocal des années 1990 que du véritable assistant personnel», raille Renaud Ménérat, Président de la Mobile Marketing Association France (MAAF). Qui se souvient des bons vieux répondeurs téléphoniques Météo France ne peut que se féliciter d’avoir une application smartphone pour connaître la météo du jour ou de la semaine. «Vous imaginez la galère pour réserver un billet de train si le serveur vous énumère tous les numéros de wagon ?». D’autant plus que la technologie de reconnaissance vocale est encore loin d’être au point : elle est très mauvaise pour reconnaître les accents et fonctionne mal dans les environnements bruyants. Du coup, l’usage des assistants vocaux se cantonne à des requêtes très simples. 63% des utilisateurs s’en servent d’abord pour effectuer une recherche web, 50% pour écouter de la musique. Quand ils ne servent tout simplement pas… de défouloir, pour 55% des gens qui s’amusent juste à poser des questions marrantes.

Compléter sans remplacer

On est donc loin d’un monde sans écran, où nos chers bambins n’auraient même plus besoin d’apprendre à lire. «La voix ne remplacera pas l’écran. C’est juste un moyen supplémentaire d’usage», corrobore Rand Hindi. «Dans une voiture, c’est totalement stupide voire dangereux d’avoir une interface tactile. En revanche dans le métro vous préférez sans doute interagir sur un écran pour des raisons de discrétion». Selon Patrick Joubert, la domotique est le secteur le plus prometteur. «Pouvoir désactiver son alarme ou piloter ses volets roulants par la voix fait réellement sens». L’enceinte connectée, réservée à un usage à domicile, présente donc un certain intérêt. Mais imaginer un smartphone sans écran relève tout simplement de l’utopie. «Le smartphone est même l’objet le moins intéressant pour la voix», juge carrément Rand Hindi. L’iPhone réduit à de simples écouteurs AirPod n’est encore pas pour demain.

 

 

Aesthetics : cette IA peut prédire si votre photo sera appréciée ou non – Test 

Source: Aesthetics : cette IA peut prédire si votre photo sera appréciée ou non.

J’ai fait le test, c’est déroutant …

Tout d’abord l’explication du Sciècle Digital: ” Everypixel Aesthetics est un outil en ligne qui permet d’analyser votre photographie pour vous donner un score (en pourcentage) sur sa qualité.

Si vous hésitez entre deux photos qui vous plaisent de façon subjective, mais que vous avez besoin d’un avis objectif, les intelligences artificielles sauront toujours vous guider. Par exemple, des chercheurs du MIT ont créé un algorithme permettant de calculer la mémorabilité d’une image. Ici, Everypixel Aesthetics utilise un algorithme pour à la fois marquer votre photos avec des tags (computer, place of work, office, no people, etc.) mais aussi pour donner une note à votre photo.

Derrière cet outil se cache la startup Everypixel. Une société qui veut connecter toutes les bibliothèques de photographies en une seule et ainsi donner leurs chances à tous les photographes. En regroupant ces bases de données sous des critères communs, Everypixel sera capable de vous trouver le cliché qui correspondra le mieux à vos besoins et qui aura le plus d’effet.

Everypixel Aesthetics IA

C’est pour cela que Aesthetic est là. En uploadant une de vos photos ou bien en donnant une url, l’outil vous dira qu’il y a x% de chance que votre image soit ‘super’. « Surpris par le résultat ? Ce service ne mesure par la coolitude ou la beauté d’une personne ou bien d’un objet sur une photo. Il prête uniquement attention aux parties techniques comme la luminosité, le contraste, le bruit, etc. » Voilà donc les critères rationnels qui sont examinés.

Everypixel Aesthetics IA

Pour rentre l’avis de ce réseau neuronal artificiel proche de celui de l’Homme, les paramètres d’entraînement ont été définis par des designers, des éditeurs, ainsi que des photographes. Ensuite, 956 794 clichés (très exactement) ont été examinés pour créer un algorithme fidèle à nos gouts, mais dénués de sentiments.

Encore en version beta, cet outil est en accès libre pour que vous puissiez tester vos photos, en attendant qu’il soit intégré dans la recherche d’images sur Everypixel.”

Source

Quelques exemples sur ma personne:

 Watson, l’intelligence artificielle d’IBM, a créé une bande-annonce du Morgan  – L’Express

Pour le nouveau trailer du film Morgan, Century Fox a décidé de s’en remettre à Watson, l’intelligence artificielle d’IBM. Résultat: les scènes ont été sélectionnées par ses soins, même si l’édition de la bande-annonce a été réalisée par une intelligence en chair et en os.

Source: VIDEO. Watson, l’intelligence artificielle d’IBM, a créé une bande-annonce – L’Express

Le nouveau trailer du film Morgan est sorti mercredi dernier. Sauf qu’il n’est pas comme tous les autres. Pour le réaliser, Century Fox a noué un partenariat avec IBM, afin que la bande-annonce soit réalisée par Watson, l’intelligence artificielle de l’entreprise. Une surprenante mise en abyme, puisque le film lui-même évoque ce sujet.

Sur son blog, l’employé d’IBM qui a piloté le projet, John Smith, raconte comment Watson est parvenu à produire le résultat final. Pour commencer, l’équipe de recherche a entraîné l’intelligence artificielle en lui fournissant les bandes-annonces de 100 films d’horreur et en segmentant chacune des scènes. Après cette phase de segmentation, Watson a réalisé une analyse visuelle des personnes, objets et décors.

 A chacune des scènes a été attribuée une émotion. Des analyses du même ordre concernant l’audio et la composition des scènes ont été réalisées. Une fois que Watson a “compris” comment fonctionnent les scènes des films d’horreur, l’équipe lui a fait “voir” l’intégralité du film Morgan. L’intelligence artificielle a alors sélectionné les 10 scènes du film pour composer cette bande-annonce.

“L’intelligence artificielle sera-t-elle capable de créer de l’art?”

Mais “Watson n’est pas un éditeur”, admet John Smith. C’est donc un réalisateur d’IBM qui s’est chargé de l’assemblage des scènes sélectionnées par Watson, de l’ajout des fondus et de la musique. Ce ne sont pas les seules limites du travail de Watson. Les équipes d’IBM ont finalement décidé d’écarter une scène, jugeant qu’elle ne collait pas avec l’histoire.

“L’intelligence artificielle sera-t-elle un jour capable de faire de l’art?” s’interroge John Smith dans la vidéo du trailer de Morgan. En tout cas, elle s’y essaye. En juin, Rue89 avait relayé le fruit de la collaboration entre le réalisateur Oscar Sharp, le chercheur en intelligence artificielle Ross Goodwin et l’intelligence artificielle Benjamin.

Le réalisateur et le chercheur avaient utilisé le script de Benjamin pour réaliser un court-métrage, Sunspring.

Un ovni cinématographique relatant ce qui semblait être un trio amoureux entre H, H2 et C, dans un futur proche. Presque comme un film de science-fiction.