Shared posts

02 Nov 09:15

Watch these robot blocks cluster together with a hive mind

by Jay Peters

MIT researchers first showed off its self-assembling “M-Block” robot cubes in 2013 — and this week, they shared a video of what they’re calling M-Blocks 2.0 (via TechCrunch). Like the first version of the blocks, M-Blocks 2.0 move by generating momentum with an internal flywheel, and can climb on and around each other using magnets:

But these new blocks also have a “barcode-like” system on each block face that they can “read” to do things like follow a specific path:

And they can also act with a hive mind to find each other and cluster together:

Though this might seem terrifying, there are more benevolent expectations for the blocks right now. MIT News reports that the researchers envision...

Continue reading…

28 Oct 09:06

Actualité : La Joconde s'expose en réalité virtuelle au musée du Louvre

by Florian Agez
© HTC Vive Arts / Emissive Il fallait bien cela pour célébrer le 500e anniversaire de la mort de la plus célèbre figure de la Renaissance, peut-être même l'une des plus célèbres figures ayant jamais vécu. Ce jeudi 24 octobre, le Louvre a ouvert les portes d'une grande exposition consacrée à Léonard de Vinci. Elle...
28 Oct 06:52

Ce photographe a capturé les cosplays les plus créatifs du Comic-Con New-York 2019

by Mélanie D.

À New-York, au tout début du mois d’Octobre, a eu lieu l’édition 2019 de la célèbre convention Comic-Con : une sorte de festival sur plusieurs jours qui rassemble les passionnés de pop culture et de comics. À cette occasion, les passionnés ont donné le meilleur d’eux-mêmes pour créer des costumes insolites, inspirés de leur personnages préférés.

Voici le moment parfait pour les fans d’afficher leur passion en incarnant tout ce qu’ils veulent. Et le photographe Ali Reza Malik a décidé de les immortaliser en les capturant dans leurs plus beaux costumes. Au programme : des cosplays tous plus créatifs les uns que les autres !

Le site Bored Panda rapporte d’ailleurs, dans un article plus détaillé, les propos du photographe : “Les cosplayers sont le meilleur exemple de ce que les passionnés ont à offrir. Ils sont totalement dévoués à leur costume, en terme d’inventivité et de créativité, ils font preuve de beaucoup d’ingéniosité.” Ali continue : “J’ai aussi eu le plaisir de prendre en photo des cosplayers en hijab, qui ajustent leurs costumes en conséquence : tout est dans les détails. C’est impressionnant.”

En ce moment même, les amateurs de BD et science-fiction affluent vers Paris, pour la version française du festival américain, qui accueille durant 3 jours des créateurs, des artistes, des acteurs et d’autres événements pour les fans. Cette année, la Comic-Con se déroule à Porte de la Villette, et a déjà commencé puisqu’elle dure du vendredi 25 au dimanche 27 octobre. Alors si vous êtes motivés, on espère que ces photos vous inspireront pour un cosplay fait-maison !

Mario, style Borderlands (version ombrage de celluloïd)

Crédits : Ali Reza Malik

Aang et Avatar Korra (Avatar, le dernier maître de l’air)

Crédits : Ali Reza Malik

Yondu Udonta (Les Gardiens de la Galaxie)

Crédits : Ali Reza Malik

Le capitaine Jack Sparrow

Crédits : Ali Reza Malik

Lara Croft (Tomb Raider)

Crédits : Ali Reza Malik

Cruella De Vil (Les 101 Dalmatiens)

Crédits : Ali Reza Malik

Aquawoman

Crédits : Ali Reza Malik

La Princesse Zelda

Crédits : Ali Reza Malik

Scarlet Witch

Crédits : Ali Reza Malik

Luigi, avec un plateau de Ouija (Luiga)

Crédits : Ali Reza Malik

Wario

Crédits : Ali Reza Malik

Captain America

Crédits : Ali Reza Malik

Le Clown Pennywise (Ça)

Crédits : Ali Reza Malik

Mysterio

Crédits : Ali Reza Malik

Jane Foster et Loki

Crédits : Ali Reza Malik

Les Maskass

Crédits : Ali Reza Malik

Venom Bowsette

Crédits : Ali Reza Malik

Waluigi

Crédits : Ali Reza Malik

Tornade (X-Men)

Crédits : Ali Reza Malik

Mario et Luigi, version Samouraïs

Crédits : Ali Reza Malik

Piotr Rasputin (Colossus)

Crédits : Ali Reza Malik

Groot, Gamora et Yondu (Les Gardiens de la Galaxie)

Crédits : Ali Reza Malik

Aladdin, Jasmine et Jafar

Crédits : Ali Reza Malik

Rey (Star Wars)

Crédits : Ali Reza Malik

Lui (Les Super-Nanas)

Crédits : Ali Reza Malik

Katana et le Joker

Crédits : Ali Reza Malik

Leonardo (Les Tortues Ninja)

Crédits : Ali Reza Malik

Norbert Dragonneau (Les Animaux Fantastiques)

Crédits : Ali Reza Malik

Samurai Gengi

Crédits : Ali Reza Malik

La Propriétaire (Crazy Kung-Fu)

Crédits : Ali Reza Malik

L’article Ce photographe a capturé les cosplays les plus créatifs du Comic-Con New-York 2019 est apparu en premier sur Creapills.

23 Oct 21:18

Jim Meskimen : un deepfake impressionnant pour imiter 20 célébrités

by GOLEM13

L’acteur et imitateur Jim Meskimen récite le poème «Pity the Poor Impressionist» avec la voix et la tête de 20 célébrités. En commençant sa vidéo par une imitation de John Malkovich et terminant par Robin Williams, Jim aidé par SHAM00K, a utilisé la technologie du deepfake qui fait actuellement polémique. En effet, cette dernière s’est illustrée en juin dernier avec la vidéo truquée d’un discours de Mark Zuckerberg sur Instagram. La vidéo hyperéaliste dans laquelle il tenait des propos inquiétants sur nos données personnelle, avait fait le tour du monde.

Plus récemment, c’est Donald Trump qui annonçait la fin du SIDA dans une vidéo deepfake imaginée par Solidarité Sida. Dans ce nouvel exemple impressionnant Jim Meskimen se métamorphose en une vingtaine d’acteurs dans un morphing assez troublant de réalisme.

Schwarzenegger, De Niro, Robin Williams…

L’article Jim Meskimen : un deepfake impressionnant pour imiter 20 célébrités est apparu en premier sur GOLEM13.FR.

22 Oct 22:47

After 40 Years, This Classic Out-of-Print Dune Game Is Being Re-Released

by Futurism Creative
Dune Game

Dune is one of the best-selling science fiction novels of all time. It’s spawned an underrated 80s movie starring Kyle MacLachlan, a popular TV miniseries, and an upcoming feature film remake starring Timothée Chalamet and a galaxy of other well-known stars. And if you’re a fan of strategy board games, you’re probably already aware that there is a killer Dune game that, unfortunately, has been out of print for years. However, Dune: A Game of Conquest, Diplomacy & Betrayal is now being re-released courtesy of the folks at Gale Force Nine.

First released in 1979, Dune the board game is set in the universe created by the late Frank Herbert and lets players shape the destiny of their own “noble family, guild, or religious order on a barren planet which is the only source for the most valuable substance in the known universe.”

The Dune game, which much like the 1984 feature film has been a cultishly adored item for decades, gives players the opportunity to do no less than replicate the unique world created by Herbert for his epic saga.

Dune: A Game of Conquest, Diplomacy & Betrayal

THe classic Dune game is back.
Gale Force Nine

The Dune board game has an intricate and involved gameplay process that’s just as detailed and rich as the novels it’s based on. It allows each player to represent the leader of their choice from six factions, all of which are jockeying to control melange, the mysterious spice that serves as a kind of universal MacGuffin within the Dune world. One Duke Leto Atredies describes melange like so:

“All fades before melange. A handful of spice will buy a home on Tupile. It cannot be manufactured, it must be mined on Arrakis. It is unique and it has true geriatric properties.”

The spice is also crucial to the all-important space travel in Dune’s reality, as its psychoactive properties give humans the mental endurance to survive hyperspace voyages without cracking up. The game lets you pick a character from the book, and wage war and politics to control as much of this precious spice as possible!

The Dune board game is set to come out on October 25th, a little over a year in advance of the upcoming feature film remake scheduled for a 2020 release. But it’s in high demand, and over on Amazon, newly ordered copies of the game aren’t scheduled to ship until November 14th at the earliest. So if there’s a Spice monger in your life who you want to take care of for the holiday season, you better order now.

Futurism fans: To create this content, a non-editorial team worked with an affiliate partner. We may collect a small commission on items purchased through this page. This post does not necessarily reflect the views or the endorsement of the Futurism.com editorial staff.

The post After 40 Years, This Classic Out-of-Print Dune Game Is Being Re-Released appeared first on Futurism.

22 Oct 05:50

Alibaba officially launches 2019 11.11 Global Shopping Festival

by Scott Thompson

Alibaba Group has kicked off the 2019 11.11 Global Shopping Festival and promised that the event will be “bigger than ever in both scale and reach”.

More than 200,000 brands will participate in what is the 11th 11.11, 22,000 of which will be from 78 overseas markets. The number of new products available stands at one million, and more than 500 million consumers are expected to shop during the 24 hour period – about 100 million more than last year. 

Alibaba plans to distribute over two billion red packets, or digital cash vouchers, while hosting 2,000+ key opinion leaders on its platforms via livestreaming to help brands showcase products and boost engagement with consumers.

“Our goal is to stimulate consumption demand and support lifestyle upgrade in China through new brands and products,” says Tmall and Taobao President Jiang Fan.

“We will enable merchants in China and around the world to grow their businesses through data-driven product innovation and consumer insights, as well as leverage our recommendation technology and content-driven user engagement to delight consumers in urban coastal cities and less developed areas of China.”

Sign up for our free retail technology newsletter here.

20 Oct 20:49

The Most Satisfying Video In The World

by Geeks are Sexy

I’m not sure if it’s the most satisfying video in the world, but I feel pretty darn satisfied right now.

[60SecondsSmarter]

The post The Most Satisfying Video In The World appeared first on Geeks are Sexy Technology News.

19 Oct 22:52

How Pebble smartwatches are getting a second life

by Jay Peters
Pebble Time

The crowdfunded Pebble smartwatch officially died last June, but a group of dedicated Pebble fans are giving Pebbles second lives, as detailed in this great article on iFixit that you should go read.

The Pebble launched to a record-breaking Kickstarter in 2012 because it looked like it had the potential to be the first good smartwatch. Part of the appeal was that it seemed ahead of its time — it could do things like show you notifications and help you control your phone’s music, which would become table stakes for smartwatches made by other companies in the years to come.

The first Pebble seemed ahead of its time

But once the Apple Watch entered the market in 2015, it was game over for Pebble. The company was acquired by Fitbit in late...

Continue reading…

17 Oct 09:17

Vous pouvez louer la maison de Barbie sur Airbnb

by Agathe

Avis à tous les fans de Barbie, la Barbie’s Malibu Dreamhouse sera disponible sur Airbnb pour 60 dollars par nuit ! Décoré de la tête aux pieds dans le style caractéristique de Barbie (beaucoup de rose), ce manoir haut de gamme est situé en plein cœur de Malibu et offre une vue spectaculaire sur l’océan Pacifique.

La vraie maison a même le fameux toboggan rose, qui relie le balcon à la piscine à débordement. Ce sera le tout premier séjour d’un fan chanceux de Barbie et de trois amis. Cette offre spéciale de deux nuits pourra être réservée à partir du 23 octobre à 23h et le séjour lui-même doit avoir lieu du dimanche 27 octobre au mardi 29 octobre.

Une maison de luxe entièrement équipée Barbie

En plus des deux chambres et des deux salles de bain, la maison comprend une variété d’espaces uniques, dont une salle de cinéma, un terrain de sport, un espace de méditation, un studio de loisir, une cuisine bien équipée, une piscine à débordement, etc.

L’une des caractéristiques les plus intéressantes de la maison est le dressing, qui regorge de vêtements Barbie grandeur nature des 60 dernières années. Cela inclut les uniformes des nombreuses carrières que Barbie a entrepris au cours de sa vie, de sorte que les invités peuvent se déguiser en astronaute ou en pompier.

En plus de la chance unique de rester dans la Dreamhouse de Barbie, des femmes très inspirantes seront également présentes. La championne d’escrime de classe mondiale, Ibtihaj Muhammad, offrira des leçons d’escrime individuelles. Jill Meyers, pilote et ingénieur en aérospatiale, visitera les coulisses du centre spatial Columbia Memorial. La chef Gina Clarke-Helm, fondatrice de Malibu Seaside Chef, préparera des aliments frais du potager et donnera des cours de cuisine.

Et comme Barbie est la fille glamour par excellence, la styliste en coiffure de célébrités, Jen Atkin, se chargera de la métamorphose. Oui, c’est elle qui travaille avec Kim, Khloe et Kourtney Kardashian.

Tout cela en l’honneur du 60ème anniversaire de la marque Barbie.

Toutes les informations ici.

L’article Vous pouvez louer la maison de Barbie sur Airbnb est apparu en premier sur GOLEM13.FR.

17 Oct 07:44

Une application de eye tracking gratuite sur l’App Store

by Arthur Vera

hawkeye eye tracking app

Cette technologie reste encore trop peu accessible, une startup en a décidé autrement !
17 Oct 05:57

Google Clips is dead

by Jay Peters
Photo by James Bareham / The Verge

Google may have introduced a lot of new Pixel camera tech at its 2019 fall hardware event this week, but it quietly retired a camera product as well: the Google Clips camera has been removed from Google’s online store (via 9to5Google). Google hasn’t responded to The Verge’s request for comment to confirm.

The idea for Clips was an intriguing one: it was a tiny AI-powered wide angle camera designed to automatically capture short videos of precious moments with your loved ones. In theory, by setting up a Clips camera in your house, you wouldn’t have to worry about quick-drawing your phone to record your baby’s first steps.

A GIF of a video from Google Clips.

In practice, though, Clips didn’t seem to work quite as well...

Continue reading…

11 Oct 12:41

Deux étudiants inventent une poignée de porte qui s’auto-nettoie après chaque usage

by Mélanie D.

Quoi de plus frustrant que de devoir toucher les poignées de portes, sûrement sales, alors qu’on vient tout juste de se laver les mains ? Une situation du quotidien qui fait frémir les plus germaphobes d’entre nous. Pour contrer le problème, deux diplômés de l’Université d’Hong Kong, Sum Ming Wong et Kin Pong Li, ont conçu une poignée de porte qui utilise la lumière comme moyen de stérilisation ! Surprenant, non ?

Vous vous demandez sans doute comment ça marche : et bien, ce tube de verre comprend des bouchons d’aluminium à chaque bout. La poignée est couverte d’un vernis photocatalytique, composé de dioxyde de titanium, réduit en poudre. C’est ce vernis sur le tube qui rend capable la décomposition des bactéries, grâce à une réaction chimique, activée par une lumière UV.

Derrière ce projet, un phénomène qui a touché la Chine pendant les années 2000 : le
syndrome respiratoire aigu sévère (SRAS), une sorte de pneumonie qui a gravement touché la population. Une maladie qui s’est notamment répandue par contact avec la bactérie. Les étudiants expliquent donc que leur “poignée de porte auto-nettoyante” est parfaite pour éviter la contamination des germes, le tout en utilisant un processus de nettoyage basé sur la chimie.

Et oui, les poignées de porte des toilettes publiques sont grandement responsables de la propagation de maladies, comme vous vous en doutez. Alors voilà la solution pour y remédier : une invention qui élimine les bactéries à 99,8%. Ce projet est l’un des gagnants des James Dyson Awards 2019, qui récompensent les meilleurs concepts étudiants, et ce, dans le monde entier. Une innovation qu’on attend impatiemment ! Sinon, en attendant, il existe aussi ce petit robot qui se glisse dans votre lit pour éliminer les bactéries.

Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li

L’article Deux étudiants inventent une poignée de porte qui s’auto-nettoie après chaque usage est apparu en premier sur Creapills.

11 Oct 05:45

Russia’s Yandex introduces an Echo Dot-style smart speaker

by Brian Heater

In May of last year, Yandex launched the Yandex.Station. The $160 smart speaker was a clear logical step for the so-called “Google of Russia.” This week, the company is back with the next-next logical step. The Yandex.Station Mini is essentially its take on the Echo Dot/Google Home Mini.

At 3,990 rubles (around $61), it’s clearly aimed at getting more users on board with its smart assistant. Though Alice has already seen solid growth, with 45 million actively monthly users, per Yandex’s numbers. Still, these low-end smart speakers have been best sellers for both Amazon and Google, both as first-time devices and ways of getting the product in more rooms.

You’ve got your standard functionality on board here, including smart home control, music playback and the like. Along with voice, there’s also gesture control, including the ability to adjust volume with the wave of a hand above the device, which appears to point to some sort of proximity sensor.

The product will be available in Russia at the end of the month.

11 Oct 05:35

Dyson abandons electric car project

by Sean O'Kane
The Dyson Supersonic Hair Dryer Launch Event Photo by Jason Kempin/Getty Images for Dyson

James Dyson is terminating his electric car project. The British entrepreneur announced the news in an all-staff email on Thursday, a copy of which was obtained by The Verge, saying that he and his board of directors decided to stop the effort after unsuccessfully trying to find a buyer. Going forward, Dyson says his company will “concentrate on the formidable task of manufacturing solid-state batteries” as well as other “fundamental” technologies like vision systems, robotics, machine learning, and AI.

“The Dyson automotive team has developed a fantastic car: they have been ingenious in their approach while remaining faithful to our philosophies,” Dyson wrote in the email. “However, though we have tried very hard throughout the...

Continue reading…

08 Oct 21:52

Mirror launches live training sessions that let coaches see you at home

by Dami Lee

Interactive fitness company Mirror, which makes a reflective LCD display for following workouts at home, today announced it’s launching one-on-one personal training. Through two-way audio and video, coaches will be able to lead users through sessions while giving feedback. Users can choose trainers based on workout activity preferences (yoga, strength training, barre, etc.), session length, trainer motivational style, and schedule. At $40 a session, that’s pricier than a SoulCycle class, but still a fraction of the cost of a session with a personal trainer at most gyms.

The 40-inch, 1080p vertical display will set you back $1,495, and a subscription to the monthly content service, which lets you stream over 70 new live classes a week, is...

Continue reading…

08 Oct 21:45

Linksys’ mesh routers can now detect motion using Wi-Fi

by Barbara Krasnoff
Linksys Velop Tri-Band AC2200 Photo courtesy Linksys

Security cameras are all well and good, but what do you do if you really want privacy? Linksys may have come up with a solution with its new Linksys Aware service, which claims to use mesh Wi-Fi to sense motion without the use of cameras or other hardware. The company is offering a free 90-day trial, after which a subscription will cost $2.99 per month or $24.99 annually.

The idea of using Wi-Fi to detect motion without the use of cameras or other sensors is not a new one. While Linksys hasn’t specifically described the technology involved here, the basic concept behind the idea is that the Wi-Fi signals are set up by the router to bounce off each other and cancel each other out; something in motion will interfere with this process and...

Continue reading…

07 Oct 10:08

La marque de cocottes Le Creuset lance une collection Star Wars en collaboration avec Disney

by Mélanie D.

À l’occasion de la sortie du 9ème volet de la célèbre saga Star Wars, la référence made in france des cocottes en fonte a dévoilé des produits à l’effigie des personnages. Que la force soit avec vous… aux fourneaux !

Sur ses réseaux sociaux, Le Creuset a donc annoncé une collaboration exclusive en partenariat avec Disney ! Au programme, des dessous de plats en forme de Faucon Millenium ou d’Étoile de la Mort, mais aussi un assortiment de 3 mini-cocottes droïdes et une plus grande en hommage à Dark Vador.

Mais on vous avoue que notre préféré, c’est le plat Han Solo, qui fait référence à l’une des plus célèbres scènes de l’épisode V. Un véritable coup de génie ! Qui ne rêverait pas d’avoir ça chez soi ? Après, il s’agit de pouvoir y mettre le prix… Le plat du beau contrebandier enfermé dans son bloc de carbonite devrait se vendre pour environ 400 euros.

Pour le moment, les tarifs de cette collection inédite ne sont pas encore affichés, mais on suppose que cela ne devrait pas tarder ! Disponible sur le site officiel de la marque à partir du 1er novembre, on pense que ces plats à succès vont faire des heureux. Sinon, si l’on n’est pas trop “cuisine”, il est toujours possible de simplement aller voir le prochain Star Wars, dans les salles le 18 décembre prochain !

Set de 3 droïdes

Crédits : Le Creuset

Mini-cocotte C-3PO

Crédits : Le Creuset

Mini-cocotte BB-8

Crédits : Le Creuset

Mini-cocotte R2D2

Crédits : Le Creuset

Plat carbonite signature Han Solo

Crédits : Le Creuset
Crédits : Le Creuset
Crédits : Le Creuset

Cocotte Dark Vador

Crédits : Le Creuset

Dessous de plat Étoile de la mort et Faucon Millenium

Crédits : Le Creuset

Salière Porg

Crédits : Le Creuset

L’article La marque de cocottes Le Creuset lance une collection Star Wars en collaboration avec Disney est apparu en premier sur Creapills.

07 Oct 10:08

Cette marque de whisky crée des capsules à croquer pour consommer le whisky sans verre

by Mélanie D.

Oui, vous avez bien lu. Du whisky en capsules à avaler : et pourquoi pas ? En tout cas, il est certain que cette initiative, aussi insolite et créative soit-elle, ne plaît pas à tout le monde… Présentée il y a à peine quelques jours, la “capsule collection” de la fameuse marque écossaise Glenlivet n’a pas vraiment fait l’unanimité. Pourquoi ? Car le petit contenant ressemblerait à de célèbres dosettes de lessive.

Souvenez-vous du scandale des Tide-Pods, l’an dernier. Ces petites portions de lessive à l’apparence colorée peuvent sembler comestibles, mais c’est là où est le danger. Avec de nombreux accidents domestiques liés à ces dosettes, l’idée semble de mauvais goût, c’est sûr.

On pourrait aussi s’interroger sur l’arôme du whisky : qu’en penseraient les fins connaisseurs ? Oui, car pour eux, il serait impossible d’apprécier cet alcool de qualité sous forme de “capsule”. Néanmoins, la marque promet une “explosion parfaite de saveurs” dans la bouche.

Pour créer ces étranges doses, Glenlivet a collaboré avec le bar londonien Tayēr+Elementary à l’occasion de la Cocktail Week de la capitale britannique. Concernant la capsule en elle-même, c’est la startup Notpla qui l’a conçue à base d’algues : à l’instar de Ooho, cette société qui avait créé des capsules d’eau à base de plantes et d’algues.

Un concept aussi bizarre qu’intéressant, qui nous laisse dubitatifs. Nouvelle façon de consommer l’alcool plus durablement, ou simple opération marketing ratée ? À vous de juger !

Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet

L’article Cette marque de whisky crée des capsules à croquer pour consommer le whisky sans verre est apparu en premier sur Creapills.

06 Oct 19:07

The Fastest Hunk of Junk in the Galaxy is Now a Gorgeous Desk Lamp

by Geeks are Sexy

Thinkgeek used to have a really cool R2-D2 lamp, but it was nowhere as cool as this Millennium Falcon desk lamp from Merchoid!

Join Han Solo and Chewbacca aboard the Millennium Falcon and brighten up your room with this fabulous piece of Star Wars memorabilia. The Millennium Falcon Anglepoise Lamp is in the shape and design of the instantly recognisable and hugely popular ship from the classic Star Wars movies. Standing at approximately 60cm (23.5) tall, this posable lamp is perfect for use in your bedroom or study. The lamp is USB powered and comes with a 3 metre USB cable. This lamp makes a fantastic gift for fans of the original Star Wars movies, and is even more suitable for those who loved the confident and cocky Han Solo.

[Star Wars: Millennium Falcon Desk Lamp]

The post The Fastest Hunk of Junk in the Galaxy is Now a Gorgeous Desk Lamp appeared first on Geeks are Sexy Technology News.

03 Oct 21:42

Google Patents Smart Home Tech To Personalize Your Life

by Kaila Lopez

Google wants to take your smart home to the next level.

get the ‘big 5’ Tech Patents report

Download this data driven report on the patent activity for Google, Facebook, Microsoft, Amazon and more top tech companies.

Email

Since 2013, the tech giant has filed 125 patents related to the smart home, and over time, has acquired or released a slew of smart home devices — including the Nest thermostat. 

But beyond automating everything from room temperature to entertainment systems, the company’s recently granted patent points to a more ambitious strategy for connecting homes in the future.

The patent envisions a reality where smart devices — along with the data they collect — help inform household decisions based on “sensed observations.” 

Sensors, for example, would collect information about household member activity and their “goals” in order to suggest and implement policies. This might include turning off the TV when a child has been watching it for too long, or collectively using 5% less energy within the home.

While the patent aims to encourage more efficient use of smart devices, as well as more specific use, the system outlined in the patent could spark privacy, consent, and security concerns.

Below, we take a look at how this patent works and why it matters.

How the patent works

Google’s patent, filed in October 2018, aims to help households achieve “goals” by sensing, analyzing, and reporting on certain data collected by smart devices around the house. These goals could include eating fewer calories, spending more time outside, yelling less, or spending fewer hours on the internet.

Goals could be suggested by household members (ie parents setting restrictions for their kids) or by computing devices (based on household member interactions with smart devices).

The patent describes a “household policy manager,” which connects to sensors across the house, including — but not limited to — smart thermostats, smart plugs, connected refrigerators, TVs, washer/dryers, lights, alarm systems, stereos, pool heaters, irrigation systems, and cameras.

The manager, which acts like a central monitoring system, connects to all of these sensors and uses them to assess who is in the room, what they are doing, how they might be feeling, and how it relates to their pre-determined goals.

One example describes the manager’s ability to “dynamically adjust an alarm clock … based upon traffic delays, etc.” to help a household member achieve the goal of getting to work everyday by a certain time (say 8AM).

In the below example, the household system uses microphones and videos within smart devices in a bedroom to identify that Sidney is alone in the house, and then triggers an action — in this case, the front door locks and remains locked until another recognized figure returns home.

A traditional smart lock typically allows entry/exit manually via a smartphone app or a keypad. Google’s policy manager, on the other hand, would automatically lock the door based on who is in the house and when, potentially removing human error (like forgetting to lock the door).

One of the benefits of the household policy manager is the ability to track and monitor children without parental supervision. The system could be used to alert parents when children are alone in the house, track how they are behaving, and control their electronics usage.

 

The above example shows how the sensors could be used to enforce certain policies. For example, if a couple decides to watch only one hour of television per day, the household policy manager could automatically shut off the television after the couple has hit its allotment. If no goal has been set, the sensors could record findings that could help inform future viewing policies (ie what type of content to watch, how long, etc).

The policy manager could also detect which household members are watching TV, and change permissions based on who is in the room. If a child is watching TV without parental supervision or with a babysitter, the system could track what the child is watching and for how long. It could then report or control the behavior, like blocking certain channels or turning off the TV after a certain amount of time.

Why it matters

Consumers are adopting more and more “smart” items within their households, from thermostats that automatically adjust the temperature to refrigerators that let you know when they are running low on kale.

For each smart item brought into the house, families add more complexity in monitoring & maintaining the ecosystem. Google claims that its new policy manager would remove the maintenance of each individual smart device and instead make goal-setting a focus for households.

According to Google’s patent filing,

“As society advances, households within the society may become increasingly diverse, having varied household norms, procedures, and rules. Unfortunately, because so-called smart devices have traditionally been designed with pre-determined tasks and/or functionalities, comparatively fewer advances have been made regarding using these devices in diverse or evolving households in the context of diverse or evolving household norms, procedures, and rules.”

The tech giant believes its system would allow these smart sensors to adapt as households change.

However, there are potential concerns around what this patent could mean for the future, especially as we move towards a more connected society.

For one, these sensors would be used to identify highly personal and sensitive information about users, like when they are arguing with raised voices, when people enter or exit the house, or even if household members eat together or separately, and how often. Access to this kind of information could cause questions surrounding the use of this data.

The patent, however, does outline the ability to disconnect these policy managers from the internet, blocking external communications while still allowing the system to function. This, the patent asserts, could help to alleviate any data privacy concerns.

Further, many of the examples outlined in the patent revolve around gathering a wide range of information on children, which could spark concerns around the treatment of the data of minors.

Another concern could be the manipulation of the policy manager system by hackers or bad actors. Someone with access to the whole household system could use its power to track household members or change household policies. For example, someone could hack into the system to gain control of all cameras in the house, unlock doors, disable alarms, and more.

Additionally, system malfunctions could occur. For example, if a smart oven is turned on accidentally, this could increase risk of a disaster.

Though Google has not yet indicated that it plans to release a product based on this patent, the company may receive push back before rolling out a system of this nature.

The post Google Patents Smart Home Tech To Personalize Your Life appeared first on CB Insights Research.

03 Oct 21:35

This fall anime season is full of superheroes, fantasy, and furries

by Michael Moore
Aniplex

This fall season, there are at least 44 new anime series starting, which is a significant challenge for even the most dedicated viewer. It’s time to prioritize. So here are eight of the most intriguing new series from this season, worth checking out for newcomers or longtime anime fans. Most of these shows will be available for viewing internationally within a day of their Japanese air date, thanks to streaming services like Amazon, Crunchyroll, Funimation, and Netflix. We’ll continue to update this post with new information about where and when these shows are streaming as it’s announced.

Along with these eight shows, three of the series (Dr. Stone, Fire Force, and Vinland Saga) from our summer season preview are continuing into the...

Continue reading…

02 Oct 06:07

Navigating Bill Gates’ brain with Netflix filmmaker Davis Guggenheim

by Andrew Marino
Photo by Saeed Adyani / Netflix

This week on our Vergecast interview series, The Verge’s editor-in-chief Nilay Patel chats with filmmaker Davis Guggenheim on his new documentary Inside Bill’s Brain: Decoding Bill Gates, which premiered on Netflix earlier this month.

Davis talks about the two years he spent filming with the Microsoft co-founder, as well as how he got Gates to participate in the film, the structure of the documentary, the most surprising things he learned about the man, and much more. Below is a lightly edited excerpt of the conversation.

Nilay Patel: I thought the most interesting part of the entire thing is when you were alone with him during his “Think Week” and he’s alone in the house and he’s reading books, and over time you see the Diet Coke cans...

Continue reading…

30 Sep 18:19

Google brings its Jacquard wearables tech to Levi’s Trucker Jacket

by Frederic Lardinois

Back in 2015, Google’s ATAP team demoed a new kind of wearable tech at Google I/O that used functional fabrics and conductive yarns to allow you to interact with your clothing and, by extension, the phone in your pocket. The company then released a jacket with Levi’s in 2017, but that was expensive, at $350, and never really quite caught on. Now, however, Jacquard is back. A few weeks ago, Saint Laurent launched a backpack with Jacquard support, but at $1,000, that was very much a luxury product. Today, however, Google and Levi’s are announcing their latest collaboration: Jacquard-enabled versions of Levi’s Trucker Jacket.

These jackets, which will come in different styles, including the Classic Trucker and the Sherpa Trucker, and in men’s and women’s versions, will retail for $198 for the Classic Trucker and $248 for the Sherpa Trucker. In addition to the U.S., it’ll be available in Australia, France, Germany, Italy, Japan and the U.K.

The idea here is simple and hasn’t changed since the original launch: a dongle in your jacket’s cuff connects to conductive yarns in your jacket. You can then swipe over your cuff, tap it or hold your hand over it to issue commands to your phone. You use the Jacquard phone app for iOS or Android to set up what each gesture does, with commands ranging from saving your location to bringing up the Google Assistant in your headphones, from skipping to the next song to controlling your camera for selfies or simply counting things during the day, like the coffees you drink on the go. If you have Bose noise-canceling headphones, the app also lets you set a gesture to turn your noise cancellation on or off. In total, there are currently 19 abilities available, and the dongle also includes a vibration motor for notifications.

2019 09 30 0946 1

What’s maybe most important, though, is that this (re-)launch sets up Jacquard as a more modular technology that Google and its partners hope will take it from a bit of a gimmick to something you’ll see in more places over the next few months and years.

“Since we launched the first product with Levi’s at the end of 2017, we were focused on trying to understand and working really hard on how we can take the technology from a single product […] to create a real technology platform that can be used by multiple brands and by multiple collaborators,” Ivan Poupyrev, the head of Jacquard by Google told me. He noted that the idea behind projects like Jacquard is to take things we use every day, like backpacks, jackets and shoes, and make them better with technology. He argued that, for the most part, technology hasn’t really been added to these things that we use every day. He wants to work with companies like Levi’s to “give people the opportunity to create new digital touchpoints to their digital life through things they already have and own and use every day.”

What’s also important about Jacquard 2.0 is that you can take the dongle from garment to garment. For the original jacket, the dongle only worked with this one specific type of jacket; now, you’ll be able to take it with you and use it in other wearables as well. The dongle, too, is significantly smaller and more powerful. It also now has more memory to support multiple products. Yet, in my own testing, its battery still lasts for a few days of occasional use, with plenty of standby time.

jacquard dongle

Poupyrev also noted that the team focused on reducing cost, “in order to bring the technology into a price range where it’s more attractive to consumers.” The team also made lots of changes to the software that runs on the device and, more importantly, in the cloud to allow it to configure itself for every product it’s being used in and to make it easier for the team to add new functionality over time (when was the last time your jacket got a software upgrade?).

He actually hopes that over time, people will forget that Google was involved in this. He wants the technology to fade into the background. Levi’s, on the other hand, obviously hopes that this technology will enable it to reach a new market. The 2017 version only included the Levi’s Commuter Trucker Jacket. Now, the company is going broader with different styles.

“We had gone out with a really sharp focus on trying to adapt the technology to meet the needs of our commuter customer, which a collection of Levi’s focused on urban cyclists,” Paul Dillinger, the VP of Global Product Innovation at Levi’s, told me when I asked him about the company’s original efforts around Jacquard. But there was a lot of interest beyond that community, he said, yet the built-in features were very much meant to serve the needs of this specific audience and not necessarily relevant to the lifestyles of other users. The jackets, of course, were also pretty expensive. “There was an appetite for the technology to do more and be more accessible,” he said — and the results of that work are these new jackets.

IMG 20190930 102524

Dillinger also noted that this changes the relationship his company has with the consumer, because Levi’s can now upgrade the technology in your jacket after you bought it. “This is a really new experience,” he said. “And it’s a completely different approach to fashion. The normal fashion promise from other companies really is that we promise that in six months, we’re going to try to sell you something else. Levi’s prides itself on creating enduring, lasting value in style and we are able to actually improve the value of the garment that was already in the consumer’s closet.”

I spent about a week with the Sherpa jacket before today’s launch. It does exactly what it promises to do. Pairing my phone and jacket took less than a minute and the connection between the two has been perfectly stable. The gesture recognition worked very well — maybe better than I expected. What it can do, it does well, and I appreciate that the team kept the functionality pretty narrow.

Whether Jacquard is for you may depend on your lifestyle, though. I think the ideal user is somebody who is out and about a lot, wearing headphones, given that music controls are one of the main features here. But you don’t have to be wearing headphones to get value out of Jacquard. I almost never wear headphones in public, but I used it to quickly tag where I parked my car, for example, and when I used it with headphones, I found using my jacket’s cuffs easier to forward to the next song than doing the same on my headphones. Your mileage may vary, of course, and while I like the idea of using this kind of tech so you need to take out your phone less often, I wonder if that ship hasn’t sailed at this point — and whether the controls on your headphones can’t do most of the things Jacquard can. Google surely wants Jacquard to be more than a gimmick, but at this stage, it kind of still is.

IMG 20190930 104137IMG 20190930 104137

30 Sep 06:29

Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir »

by Hubert Guillaud

Kate Crawford (@katecrawford) est la cofondatrice (avec Meredith Whittaker, @mer__edith) de l’AI Now Institute (@AINowInstitute, blog). Chercheuse à Microsoft Research, professeur à l’université de New York, elle est spécialiste de l’étude des implications sociales des systèmes techniques et notamment des effets du Big Data, des algorithmes et de l’Intelligence artificielle. À l’occasion de l’inauguration de la chaire invitée IA et Justice, ouverte à l’École normale supérieure, elle a livré une passionnante présentation sur les enjeux de ces technologies. Prenons le temps de la dérouler !

« Nous sommes confrontés à des systèmes techniques d’une puissance sans précédent, qui impactent très rapidement tous les secteurs, de l’éducation à la santé, de l’économie à la justice… Et la transformation en cours est concomitante à la montée de l’autoritarisme et du populisme ». Cette évolution n’est pas une coïncidence, avance la chercheuse : l’un et l’autre interrogent la centralisation du pouvoir et nécessitent d’améliorer notre compréhension critique des formes de pouvoir. Cette combinaison renforce les difficultés pour maîtriser ces outils et les rendre responsables et nécessite de comprendre en profondeur les relations entre politique, pouvoir et IA. « L’IA est une nouvelle ingénierie du pouvoir ». La science, la société et les autorités doivent trouver les modalités pour qu’elle rende réellement des comptes. « C’est bien plus qu’une question d’équité, de loyauté, d’honnêteté ou de responsabilité ! C’est une question de justice ! », introduit Kate Crawford non sans passion.

Kate Crawford sur la scène de l'ENS
Image : Kate Crawford sur la scène de l’ENS, photographiée par Stéphanie Hare.

Kate Crawford commence par raconter une histoire. Celle d’un projet de recherche de police prédictive, lancée par Jeff Brantingham, l’un des fondateurs du célèbre Predpol (voir « Predpol : la prédiction des banalités » et « Où en est la police prédictive ? »), visant à prédire la criminalité liée aux gangs. Le problème est que cette appartenance à des gangs est déterminée par les services de police d’une manière très subjective et conservée dans des bases de données et sur des fiches très lacunaires et très partiales. Comme l’expliquait un excellent article de The Verge, Brantingham proposait de prédire cette appartenance à partir de différentes données comme l’arme utilisée, le nombre de suspects d’un crime, le lieu et la description du crime que l’on trouve dans les bases de données de la police (le lieu surdéterminant l’association avec un gang sous prétexte qu’un quartier relève de leurs territoires). L’étude a fait l’objet de critiques dans Science. À un colloque, l’un des jeunes coauteurs, alors qu’il était interrogé sur les limites et les implications éthiques de ces recherches, a répondu par un piteux « Je ne suis qu’un ingénieur ». En 2016, un audit sur la base de données CalGang de l’État de Californie a montré des erreurs endémiques sur les dossiers : 23 % des personnes présentent dans ce fichier n’avaient aucune connexion avec des gangs… Les ingénieurs ne peuvent pas pourtant séparer ainsi leur responsabilité des conséquences des outils qu’ils conçoivent, s’énerve Kate Crawford. Pire, cette façon de ne pas reconnaître sa responsabilité est en passe de devenir une norme. Axon, l’entreprise qui vend des caméras de corps à la police (voir « Les caméras pour policier sont-elles une solution ? »), via son laboratoire d’IA, affirme pouvoir prédire la criminalité, en faisant de la reconnaissance faciale pour déterminer l’historique criminel d’une personne et de la détection de menace depuis leur expression faciale ! Nous entrons dans une époque où des procédés techniques sont transformés très rapidement en systèmes. Ce faisant, ils renforcent des biais culturels et les automatisent, en les rendant à la fois invisibles et incontournables.

Crawford se rappelle d’Eliza, le premier chatbot mis au point dans les années 60 par l’informaticien Joseph Weizenbaum. Ce pionnier de l’IA nous avertissait déjà que le séduisant potentiel de l’IA risquait de nous faire oublier et ignorer ses profondes implications politiques. Eliza était un programme d’une grande simplicité, mais nombre de ceux qui ont joué avec ont été impressionnés par le programme, convaincus qu’une personne se cachait derrière pour leur parler « A l’époque, les gens les plus intelligents du monde réfléchissaient à l’intelligence artificielle, et c’était passionnant… » Weizenbaum prévenait déjà pourtant de la désillusion à venir de l’IA et soulignait que ces technologies allaient permettre aux ingénieurs de mettre à distance le coût humain des systèmes qu’ils concevaient. C’est exactement ce qu’affirmait le jeune ingénieur du programme de police prédictive. Nous continuons à ne pas regarder les implications sociales des outils que nous créons. 60 ans plus tard, nous sommes encore empêtrés dans ces problèmes, or, les changements sociaux que produit l’IA sont profonds. Nous devons nous préoccuper de ces enjeux sociaux, éthiques et politiques avec le même engagement et la même rigueur que nous appliquons à l’optimisation des systèmes techniques !

L’IA est à la fois une technologie, une pratique sociale et une infrastructure industrielle

L’IA n’est pas seulement une technologie, comme on le croit souvent. « Quand on parle d’IA, on parle d’une écologie de différentes technologies », qui ont beaucoup évolué ces dernières années. Même le machine learning est un assemblage de différentes techniques, rappelle rapidement la chercheuse. Le mot « intelligence » est un piège, notamment parce que l’intelligence artificielle ne fonctionne pas du tout comme la cognition humaine. Mais l’IA surtout, n’est pas qu’une technique, insiste-t-elle. « C’est aussi une pratique sociale qui nécessite de comprendre qui travaille sur ces systèmes, quelles données sont utilisées, comment sont-elles classées… » Le fait que le milieu de l’IA soit dominé par des hommes, des ingénieurs, majoritairement blancs et appartenant aux catégories supérieures crée et adresse des problèmes spécifiques. Enfin, l’IA, c’est également une industrie particulièrement imbriquée et complexe. C’est ce que tentait de montrer Anatomy of an AI System, un travail mené par la chercheuse et Vladan Joler, directeur du Share Labs, qui dressait la cartographie exhaustive de ce qu’implique l’usage de la commande vocale Amazon Echo. Cette carte montrait que derrière l’appareil, nous sommes confrontés à un système de calcul planétaire qui a des impacts nombreux en terme de ressources, de données, de travail… Cette tentative de décomposition de l’appareil d’Amazon montre combien ce qu’on appelle l’IA est aussi une infrastructure industrielle particulièrement concentrée. À chaque fois que nous demandons l’heure à Alexa, nous activons un système extractiviste en terme de matériaux, de données, de travail… qui a des impacts sociaux, environnementaux, économiques et politiques cachés. « L’IA est une nouvelle ingénierie du pouvoir » (« AI reengineering power »).

Anatomi of AI

En 2008, Chris Anderson de Wired prophétisait la fin de la théorie : c’est-à-dire l’âge où l’analyse des données suffirait pour produire des résultats. On pensait alors, explique Kate Crawford, qu’avec plus de données, les systèmes deviendraient neutres. Mais c’est le contraire qui s’est passé, comme elle le pointait déjà en 2013 dans « les biais cachés des Big Data » (et même avant) : avec la démultiplication des données, « les discriminations ont été démultipliées ». Nous en avons eu depuis chaque jour de nombreux exemples… En 2015, l’application photo de Google était prise à étiqueter des étudiants noirs en « gorilles » (et si elle ne le fait plus, c’est visiblement parce que le terme gorille a été supprimé de son moteur d’annotation !). En 2016, une remarquable enquête de Bloomberg montrait que la livraison en un jour d’Amazon dans les plus grandes villes des États-Unis n’était pas proposée dans les quartiers noirs de ces villes. En 2018, on a découvert qu’Amazon avait utilisé un système d’IA pour faciliter son recrutement. Problème : le système écartait systématiquement les femmes, pour se conformer au modèle en vigueur dans la firme, où 85 % des employés sont des hommes. Après des tentatives de correction inopérantes, Amazon a dû abandonner ce système ! Avec la chercheuse Rashida Richardson et le professeur de droit Jason Schultz (@lawgeek), Kate Crawford a publié en début d’année une analyse des systèmes de police prédictive américains. Les chercheurs soulignent que les systèmes de prédiction des crimes reposent sur des données historiques « sales » voire illégales, mal documentées, produites par des services qui n’ont pas toujours été exemplaires et qui ont consigné des informations bien souvent en violation des droits civils. Travailler depuis ces données pour créer des systèmes de prédiction du crime conduit donc à renforcer les biais, leurs erreurs et inexactitudes de manière systémique.

« Les biais sont devenus le matériel brut de l’IA »

Pour être plus concret encore, la chercheuse amène son public à regarder les images qui alimentent nos systèmes, à ouvrir le capot et comprendre comment fonctionne l’entraînement des systèmes de reconnaissance d’image. Elle prend l’exemple d’un jeu d’images étiquetées couramment utilisé pour l’entraînement des systèmes à la reconnaissance d’image. C’est un jeu de 13 000 images utilisé pour entraîner les systèmes à reconnaître des schémas… Mais qui n’est pas sans biais. Il est composé de 78 % de portraits d’hommes et de 84 % de portraits de personnes blanches, ce qui implique que les systèmes entraînés depuis ces données fonctionneront mieux sur les hommes blancs. Ce jeu a été assemblé principalement en « scrappant » (c’est-à-dire en extrayant des données, pas nécessairement avec le consentement des espaces d’où elles ont été aspirées) des photos provenant de Yahoo News entre 2002 et 2004, d’où le fait que le visage qui est le plus présent dans la base soit celui de George W. Bush. Ce simple exemple souligne combien les jeux de données reflètent les hiérarchies sociales et les structures de pouvoir existantes.

Autre exemple en utilisant AVA, une base de données de vidéos annotées, permettant aux machines de comprendre les actions humaines et les activités humaines, comme de tenir un verre ou d’être assis sur une chaise. Le problème est que quand on regarde les vidéos associées à une activité, comme de jouer avec enfants, vous ne voyez que des femmes, aucun homme. Si vous cherchez la catégorie kicking a person (donner un coup de pied à quelqu’un), vous ne trouverez que des scènes violentes avec hommes pratiquant le kung-fu ! Ces exemples montrent que ces bases d’entraînement dévoilent une vision particulière de nos vies, très normative, très stéréotypée et très limitée.

Ces biais ne contaminent pas que les images, ils se retrouvent également dans les mots que ces systèmes utilisent, que ce soit pour la traduction automatique, comme dans l’étiquetage automatique des images et vidéos. Les mots qu’on utilise sont souvent très connotés au genre, relevait une étude. Ainsi des mots comme « génie » ou « tactique » sont associés majoritairement aux pronoms masculins, alors que des mots comme « beau » ou « lecture », sont associés aux pronoms féminins. Ces biais de langage se retrouvent bien sûr dans l’analyse émotionnelle qui consiste à déterminer des émotions depuis des textes ou des images de visages ou d’attitudes. À sa sortie, l’API de Google sur le langage naturel, associait des termes comme juifs ou gay a des sentiments négatifs (voir « Vers des interactions automatisées et empathiques à la fois »). Le terme White Power est associé à un sentiment positif, contrairement au terme féministe… « Les biais sont devenus le matériel brut de l’IA »

Comme le résume un petit graphique humoristique de l’informaticien Moritz Hardt (@mrtz), on a longtemps pensé que tout allait bien avec le machine learning, jusqu’à ce que les systèmes et les études se démultiplient… et montre l’ampleur du problème de la discrimination, et ce alors que le déploiement de ces systèmes engage et impacte des millions de personnes, explique-t-elle en montrant une image de Jack Nicholson dans Shining, son visage halluciné dans le trou de la porte qu’il vient de défoncer à coup de hache et qu’un logiciel d’analyse d’image qualifie de « joyeux ».


Image : Le visage de Jack Nicholson dans Shining soumis à l’outil d’analyse de sentiment de Microsoft, qui le désigne comme « joyeux ».

Pour répondre à ces biais, les spécialistes travaillent à apporter des réponses techniques, mais dont la portée s’annonce limitée, prévient Kate Crawford. « Il est probable que ces solutions ne résolvent rien, voire empire le problème ». En fait, les chercheurs et ingénieurs font une application erronée de l’équité ou de l’inclusion. Appliquer des corrections statistiques sur un corpus n’est pas si simple. Dans une recherche menée avec Solon Barocas, Aaron Shapiro et Hanna Wallach sur le problème des biais, qui s’est intéressé aux solutions techniques proposées par la recherche à ces questions, celles-ci sont principalement de 3 ordres : elles visent à améliorer la précision, à gommer pour neutraliser et à mieux refléter la démographie. Améliorer la précision consiste à collecter toujours plus de données, d’une manière toujours plus précise donc trop souvent toujours plus invasive. Gommer pour neutraliser consiste par exemple à enlever le terme gorille des possibilités d’étiquetage des images de Google, même pour celles qui montrent véritablement des gorilles. Enfin, mieux refléter la démographie consiste à appliquer des corrections statistiques pour qu’elles soient plus représentatives… Mais comme la chercheuse l’a montré, les biais sont partout et profondément intriqués dans les données. Derrière ces corrections statistiques imparfaites, il est nécessaire de poser des questions plus larges et plus profondes. Quelle idée de neutralité est à l’oeuvre ici ? De quelle neutralité veut-on parler ? Comment compenser les inégalités ? Certes on peut corriger le manque de diversité, mais comment, sur quels critères, selon quelle représentation, avec quelle correction ? Si on reprend le jeu des 13 000 images utilisées précédemment, on peut certes y ajouter un peu de diversité… mais combien ? Qui décide de qui doit être représenté dans cette base ? Dans quelle proportion ? Si on ajoute des femmes présidentes d’entreprise dans ces bases, à quelle proportion faut-il le faire ? Faut-il que le système se base au niveau – bien bas – du nombre de femmes présidentes d’entreprises actuel ? Ou au contraire y projeter un modèle idéal de société où les femmes et les hommes pourraient être représentés comme présidents d’entreprises à parts égales ?… Ce simple choix projeté dans les boucles de ces systèmes devient très vite éminemment politique ! « La parité n’est pas la justice », explique Kate Crawford, en tout cas n’est pas suffisante pour l’imposer. Beaucoup d’articles de recherche actuellement tentent de mettre au point des outils d’évaluation des risques algorithmiques afin de les rendre plus équitables, notamment dans le secteur de la prédiction du crime ou de la justice prédictive. L’enjeu par exemple est de traiter de la même façon les populations criminelles, quelle que soit leur couleur de peau. Mais cette parité est-elle pour autant plus juste, alors que ces populations ne sont pas arrêtées de la même façon ? Pour l’instant, nous n’avons pas de procédures fiables pour améliorer ces systèmes décisionnels correctement… La correction « technique » de ces systèmes – présentée comme neutre et objective – risque surtout de refermer les débats et l’intérêt actuel à regarder concrètement comment ils fonctionnent et les problèmes qu’ils posent, s’inquiète la chercheuse, et les éloigner de la scène du débat politique que nous devons avoir. Cette correction n’est ni « technique », ni un problème d’ingénieur ! Elle porte des enjeux politiques considérables !

Exemple d'image étiquetée d'un loser dans ImageNetAlors qu’elle ne l’évoquait pas sur la scène de l’ENS, signalons que Kate Crawford et l’artiste Trevor Paglen (@trevorpaglen) viennent de lancer un projet provocateur, ImageNet Roulette, qui utilise un réseau de neurones entraîné sur les catégories utilisées pour décrire des images de personnes de la base de données ImageNet, très utilisée pour l’entraînement des systèmes. ImageNet Roulette propose aux gens d’y télécharger un portrait et de voir les étiquettes que lui attribue l’IA. Très souvent, ces étiquettes se révèlent particulièrement cruelles, misogynes ou racistes… Un moyen pour montrer, simplement et concrètement, les problèmes que soulève l’IA. L’essai qui accompagne le projet et l’exposition associée, détaille très concrètement lui aussi les limites des jeux d’entraînements que l’on fournit aux machines, la complexité de leur étiquetage, qu’il soit humain ou auto-apprenant.

« Quand on optimise un système par nature discriminatoire, qu’optimise-t-on ? » Kate Crawford pointe une autre étude, « Les nuances du genre » (voir l’article de Wired) qui a testé plusieurs systèmes de reconnaissance faciale pour montrer qu’ils reconnaissent mieux les hommes que les femmes, quels que soient la couleur de peau, mais qu’ils ont des performances bien moindres avec les femmes que les hommes, et encore bien moindre pour les femmes qui ont les peaux les plus sombres ! « Ce sont toujours les mêmes groupes sociaux qui demeurent, dans la société, comme vue au travers des systèmes techniques, assujettis à l’injustice, à la surveillance, à la pauvreté » (c’est que disait également la chercheuse Virginia Eubanks dans son livre, Automatiser les inégalités).

Les entreprises de la tech se veulent rassurantes. Pour elles, nous pouvons réparer ce problème, il suffit d’élargir les jeux de données pour le corriger ! Mais cela signifie collecter toujours plus d’images, notamment des groupes minoritaires.Des groupes qui sont déjà les plus exposés à la surveillance, au contrôle, aux procédures d’expulsion… En élargissant les jeux de données, nous risquons surtout de rendre les populations les plus fragiles plus faciles à contrôler et à surveiller ! « Une surveillance égalitaire n’est pas l’égalité ! » Au contraire ! Le risque est de développer des atteintes encore plus disproportionnées qu’elles ne sont aux groupes les plus minoritaires et les plus fragiles ! Ces systèmes sont « dangereux quand ils échouent, nocifs quand ils fonctionnent ». « Améliorer un système injuste ne peut que créer un plus grand préjudice ». Dans Nature, la chercheuse a appelé à un moratoire sur les technologies de reconnaissance faciale ! Le président de Kairos, un spécialiste des services de reconnaissance faciale a annoncé vouloir arrêter de vendre ses services à la police… Nos données reflètent la complexité et l’injustice de nos systèmes, rappelle Crawford. Pour répondre à ces problèmes, nous devons augmenter les garanties et les garde-fous pour les plus vulnérables. Automatiser la société ne la rend pas plus juste. Il faut aussi regarder plus largement comment et pour qui un système est utilisé. À qui donne-t-il du pouvoir ? Pour Crawford, il est nécessaire pour les concepteurs de systèmes de se poser des questions (à l’image de celles qu’adressent le dernier rapport le dernier rapport de l’AI Now Institute : votre outil donne-t-il plus de pouvoir aux plus puissants ? Si c’est le cas, il va approfondir les inégalités.

Le pouvoir (et le risque) de classer

Par nature, l’IA classe, segmente et regroupe. C’est une fonctionnalité, pas un bug. Or, la classification a toujours été une forme de pouvoir. La classification produit un préjudice encore plus fort que les biais. La chercheuse rappelle alors rapidement l’histoire de la classification scientifique. Elle évoque notamment la phrénologie, cette pseudoscience qui espérait déterminer l’intelligence ou la criminalité depuis des caractéristiques morphologiques (voir « Les Big Data sont-elles la nouvelle phrénologie ? »). Pour cette pseudoscience, les caractéristiques les plus accablantes étaient réservées aux femmes et aux étrangers. L’enjeu de ces formes de classements était déjà d’affirmer la puissance des puissants.

L’accélération de la classification apparaît à la fin du XIXe siècle. Quand un employé du bureau du recensement américain, Herman Hollerith, invente la mécanographie, une machine statistique fonctionnant à partir de cartes perforées. Inspiré par un poinçonneur de tickets de Tram, Hollerith va mécaniser la lecture des fiches de recensement pour en accélérer le traitement. Il quittera l’administration pour créer sa société qui deviendra en 1917, l’International Business Machine Corporation, plus connue depuis sous le nom d’IBM. En 1934, une filiale allemande d’IBM va fournir ce type de solutions au régime nazi qui va s’en servir pour tenir des registres raciaux de la population.

La science de la classification a toujours flirté et attiré la discrimination et le racisme, rappelle la chercheuse. En 2016, deux chercheurs de l’université de Shanghai, Xiaolin Wu et Xi Zhang, ont publié lors d’une conférence sur le Machine Learning un article où ils affirmaient pouvoir prédire depuis une simple photo de visage si une personne allait devenir un criminel. Naïvement, ils ont affirmé que leur étude était dénuée de biais. Pour la mener, ils ont utilisé une base de donnée de criminels du gouvernement chinois et de l’autre une base de données de photos de conducteurs de taxis… Or, les différences de traits du visage qu’ils ont mis à jour n’en étaient pas. Ils ont confondu les traits du visage et les expressions du visage. Il n’y avait pas de différences dans la structure faciale entre les criminels et ceux qui ne l’étaient pas, mais une différence d’expression : sur les photographies des services de police, les criminels ne souriaient jamais ! Crawford évoque un autre exemple, tiré des travaux du psychologue Michal Kosinski (@michalkosinski), l’étude dite Gaydar, du nom de l’application de rencontre dont les photos ont été extraites… Cette étude a utilisé des réseaux de neurones pour détecter des caractéristiques de milliers de visages permettant de prédire l’orientation sexuelle de quelqu’un depuis ses traits de visages. Pour Crawford, cette étude pose de nombreuses questions méthodologiques et éthiques, notamment quand on considère que le fait d’être gay est une pratique criminalisée par quelque 78 pays à travers le monde et pour certains, punis de la peine de mort (même si l’objection éthique de Crawford est juste, l’étude de Kosinski est plus ambigüe que cela comme le montrent les explications de Carl Bergstrom et Jevin West de l’excellent Calling Bullshit ou, en français, l’article de déconstruction de l’ambiguïté de l’alerte de Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues pour la revue Réseaux). Pour Crawford, quand l’IA cherche à catégoriser les gens sur le genre, la race ou l’identité sexuelle, depuis leur visage, elle fait une erreur conceptuelle et pratique la confusion des catégories, en pensant que ces classements sont des objets fixes, comme le sont une table ou une chaise. Kosinski a justifié son article en expliquant qu’il était important de montrer aux gens que ce type de classements pouvait être accompli. Mais pour Kate Crawford, nous avons une obligation éthique à ne pas faire des choses scientifiquement contestables, capables de causer de sérieux préjudices et marginaliser plus encore les gens marginalisés. « Ce n’est pas parce qu’on peut fabriquer quelque chose qu’on doit le faire ». Il n’est pas indifférent que la possibilité de détecter le crime ou l’homosexualité se produise au moment où le populisme et l’autoritarisme se développent, insiste la chercheuse. Beaucoup de gens souhaitent des systèmes de pouvoir et de contrôle qui n’aient de comptes à rendre à personne. Le sociologue Stuart Hall – tout comme Michel Foucault – affirmait que les « systèmes de classification sont en eux-mêmes des objets de pouvoir ». Toute classification dépend d’une abstraction, qui vise à mettre certaines choses en avant et à en rendre d’autres silencieuses. Qu’est-ce qui est accentué, optimisé ? Qu’est-ce qui est rendu silencieux ? Nous avons le devoir de ne pas reproduire les erreurs du passé !

Géopolitique de l’IA : articuler la Justice et l’IA

Aujourd’hui, le monde entier s’intéresse aux « superpouvoirs » de l’IA, glisse la chercheuse en faisant une référence implicite au best-seller de Kai-Fu Lee (voir « L’intelligence artificielle chinoise, un modèle ? »). De partout, le risque est que l’IA, parce qu’elle est un système de contrôle et de pouvoir, change la démocratie. C’est évident pour nous, occidentaux, quand on regarde le crédit social chinois, qui très concrètement proscrit certains individus, à l’image des 23 millions de Chinois qui sont interdits de se déplacer. Mais la Chine n’est pas le seul vilain petit canard de l’IA. L’analyse de sentiments par exemple, pose d’innombrables problèmes, à l’image de ceux montrés par le scandale Cambridge Analytica ou de HireVue, un système d’entretien d’embauche en vidéo qui calcule de votre prestation un profil psychographique. Le problème ne concerne pas seulement le secteur privé, mais également le secteur public, à l’image de l’Agence de police douanière et de contrôle des frontières américaine qui utilise un système de prévision du risque des migrants arrêté qui a fait tripler la détention des immigrants notamment par l’interconnexion de bases de données. Le nouvel algorithme mis en place en 2017 recommande désormais la détention dans 100 % des cas ! « C’est un outil prédictif qui n’apporte qu’une réponse ». Des milliers d’agents ont accès aux données du système et peuvent les manipuler, par exemple en faisant disparaître les informations permettant de relier des enfants à leurs parents ! Et Crawford d’ironiser : comment la parité et l’équité fonctionnent-elles dans de tels systèmes où des gens à la peau sombre sont facilement identifiés par des gens à la peau blanche qui ne les aideront pas ! Pour la chercheuse, nous touchons là des enjeux majeurs liés aux droits de l’homme, à la responsabilité et aux procédures équitables. La philosophe Hannah Arendt rappelait que ce qui hantait le plus sa génération après le procès de Nuremberg était de comprendre comment cela avait pu arriver ! Et comment avons-nous pu laisser cela arriver ! Elle constatait déjà que la seule chose qui a pu limiter la montée des dérives totalitaires a été de s’opposer à leurs technologies. En 1968, la philosophe nous prévenait déjà :« Le rêve de la police est qu’une carte gigantesque sur les murs de leurs bureaux suffise pour établir à chaque moment qui est en relation avec qui et selon quel niveau d’intimité… » Ce cauchemar ne paraît plus irréalisable aujourd’hui, sa réalisation technique est juste difficile. Pour Crawford, nous avons là une description du danger que nous courons.

Nous avons pourtant déjà répondu à des défis et des dangers de ce type. En matière de risque nucléaire ou de génie génétique par exemple, nous avons tenté d’établir des règles et des garde-fous, estime avec beaucoup d’optimisme la chercheuse. La communauté scientifique doit travailler à comprendre les implications sociales de l’IA, notamment son potentiel à accélérer les inégalités. Pour cela, nous avons besoin d’éthique, estime la chercheuse. Les ingénieurs qui développent ces systèmes ont une grande responsabilité, car les systèmes sur lesquels ils travaillent impactent non seulement des millions de personnes, mais également les générations futures.

L’éthique n’est pourtant pas une solution toute faite qu’il suffirait d’appliquer. Elle interroge comment faire pour que les formes de gouvernance rendent clairement et publiquement des comptes à ceux qu’elles gouvernent. Mais pour Kate Crawford, nous avons surtout besoin d’articuler la question de la justice et de l’IA. Pour elle, l’enjeu tient plus de la justice que de l’équité. D’une justice économique, politique, sociale, environnementale… Il nous faut trouver les moyens pour que ces systèmes automatisés rendent compte de leurs fonctionnements, de leurs actions… Et cela passe nécessairement par le développement de contrôles, de réglementations et de législations. Mais également par les actions individuelles comme collectives que nous menons… Et Kate Crawford de rappeler le rôle de l’ingénieur du recensement français, René Camille, qui a oeuvré contre la machine à identifier les juifs du régime nazi. Chaque ingénieur a un moyen d’utiliser son pouvoir de manière éthique… Pour la chercheuse, nous devons utiliser ce moment critique des technologies qui se fait jour. Souvenons-nous des dangers de l’histoire de la classification, conclut-elle. Et travaillons à nous assurer que nous construisons un monde où chacun pourra vivre.

Après son intervention, Kate Crawford a répondu à quelques questions du public. Pour identifier les biais, interroge une personne, encore faut-il pouvoir les repérer… Beaucoup de données par exemple ne comportent pas d’information sur l’origine ethnique des gens. Pour pouvoir corriger cette question, le risque n’est-il pas qu’on soit toujours plus invasifs à l’encontre de la vie privée ? Et Kate Crawford d’appuyer : à nouveau, même en récoltant des données plus précises, la question demeure de comment les rendre neutres, comment corriger concrètement les résultats ? Bien souvent par exemple, les données raciales sont d’une grande généralité : aux États-Unis, nous avons le plus souvent 4 catégories : noir, blanc, asiatique et autres ! Qui est rangé dans quoi ? Qu’est-ce que ces catégories reflètent ?

Faut-il bannir l’IA dans certains secteurs et si oui, lesquels ? Comment estimer le risque dans l’innovation ?, interroge un autre participant. Il y a 3 ans, personne n’envisageait de bannir la reconnaissance faciale… Et regardez maintenant l’évolution de cette question, notamment en Californie et à San Francisco ! Ça bouge vite. Personnellement, je pense qu’il nous faut des moratoires dans certains secteurs, soutient la chercheuse. Dans le monde de la médecine ou de la pharmacie, on ne laisse pas faire n’importe quoi aux industriels… Cela suppose bien sûr de comprendre les risques, ce qui n’est pas toujours si simple. La qualité des discussions autour de ces enjeux, tant du côté des politiques que du grand public a beaucoup progressé, même si les enjeux sont complexes. Cela demande beaucoup de courage et de pression du public pour contrer la puissance des grandes entreprises du secteur à imposer leur agenda !

Si l’IA est biaisée, les gens portent également leurs propres biais… Entre les biais d’un recruteur humain et les biais d’un recruteur automatique, qui pourrait être le plus objectif ? Peut-on rendre l’IA meilleure que les hommes ?, interroge une autre personne. Ce n’est pas parce que le monde est biaisé que nous devons en ajouter une couche, rétorque Kate Crawford. Certes, le jugement des juges est biaisé, mais ils fonctionnent dans un système où leurs pouvoirs sont contrebalancés. Leurs décisions doivent être motivées. Il y a des garde-fous et des garanties institutionnelles, des procédures, des recours … Dans le domaine des décisions automatisées, nous devons développer des procédures et des garanties également !

Répondant à une autre question sur la collecte de données personnelles toujours plus invasive, la chercheuse souligne que les assistants vocaux par exemple, pour fonctionner, ont besoin de toujours plus de données spécifiques et contextualisées. « Nous sommes dans une course à l’extraction de données et c’est cette culture qu’il faut changer ! » Ces systèmes ne sont pas soutenables et il nous faut des modèles qui utilisent le moins de données possible !

Hubert Guillaud

28 Sep 22:33

Microsoft Releases Vision AI Development Kit Based on Qualcomm’s Vision Intelligence Platform

by Cabe Atwell

During Microsoft’s annual Build developers conference in May of this year, the company unveiled a partnership with Qualcomm to bring about a developer kit for vision machine learning applications. Earlier this month, Microsoft and Qualcomm announced the release of the Vision AI Developer Kit, which includes a smart camera that uses Qualcomm’s Vision Intelligence 300 platform, as well as Microsoft’s Azure IoT Edge and Azure Machine Learning software edge solutions.

The EIC MS Vision Camera provides an 8-megapixel sensor capable of recording in 4K UHD and can be used for many Vision AI applications.

According to Microsoft, “It supports an end-to-end Azure enabled solution with real-time image processing locally on the edge device, and model training and management on Azure. The Vision AI Developer Kit, made by our partner eInfochips, can now be ordered…” Microsoft has also uploaded Visual Studio Code with Python modules, prebuilt Azure IoT deployment configurations, and a Vision AI Developer Kit extension for Visual Studio to the company’s GitHub page.

Included in the kit is the EIC MS Vision SNPE 500 camera, which comes outfitted with Qualcomm’s Snapdragon QCS603 SoC with 4Gb of LPDDR4x RAM, and 16Gb of eMMC for storage. It boasts an 8MP camera sensor capable of recording 4K UHD video, a four microphone array for capturing audio, Qualcomm’s WCN3980 (1X1) 802.11b/g/n (2.4/5GHz) Wi-Fi chip, and a micro SD card slot. There’s also audio in/out jacks, an HDMI port, a USB-C port, and a power button, plus it runs Yacto Linux.

The Vision AI Developer Kit allows users to take advantage of Microsoft’s cloud-based AI and IoT services on Azure to train models while using Qualcomm’s Vision Intelligence Platform.

According to Microsoft, the Vision AI Developer Kit can be used as a workplace safety monitor that checks to make sure workers are wearing hardhats, or provide inventory management, making sure products are stocked on shelves and in their right locations. The Vision AI Developer Kit is now available for $249.


Microsoft Releases Vision AI Development Kit Based on Qualcomm’s Vision Intelligence Platform was originally published in Hackster Blog on Medium, where people are continuing the conversation by highlighting and responding to this story.

26 Sep 05:44

A new Pixel 4 XL leak shows off next-gen Google Assistant and face unlock

by Jay Peters
Illustration by Alex Castro / The Verge

Leaks of the Pixel 4, a phone that we already seem to know a lot about, just keep coming. Nextrift got its hands on what appears to be a production Pixel 4 XL, and it posted impressions and some new details, including what seems to be the first public look at the next-gen Google Assistant, which Google announced in May at Google I/O.

Google says the next-gen Assistant would be “up to 10 times faster,” could respond to questions or requests without requiring you to say “Hey, Google” each time, and queries will be processed on the device instead of being processed at Google’s servers. In Nextrift’s testing of the next-gen Assistant, it says it was “noticeably quicker” at processing requests, and it could actually make requests of the...

Continue reading…

25 Sep 05:44

Finally, a Rotary Cell Phone With Speed Dial

by Kristina Panos

If you’re reading this, chances are good that you’re the family IT department. We do what we can to help them, but there’s just no changing the fact that smartphones are difficult to operate with aging eyes and hands. When [sideburn’s] dad started complaining, he took a different approach. Instead of helping his dad adapt, [sideburn] stuffed modern cell phone guts into a 1970s rotary phone — if all you want to use it for is phone calls, why not reach for a battle-tested handset?

[sideburn] figured out the most important part first, which is getting the thing to ring. The bells in those old phones are driven by a huge relay that requires a lot of voltage, so he boosted a 3.2V rechargeable to 34V. Then it was just a matter of getting the GSM module to play nice with the microcontroller, and programming a MOSFET to trigger the boost module that makes the beast jingle.

The worst thing about rotary phones is that they were never meant to be dialed in a hurry. But [sideburn] took care of that. Once Rotocell was up and working, he added an SMS interface that makes the phone a lot more useful. Dad can add contacts to Rotocell by texting the name and number to it from a modern phone. Once it’s in there, he can dial by name, speeding up the process a tiny bit.

The SMS interface can also report back the signal strength and battery level, and will send battery low alerts when it’s under 20%. You can see Rotocell in action after the break.

Got an old rotary or two lying about? If modernizing the internals to make calls doesn’t light up your circuits, try turning it into a voice-controlled assistant instead.

24 Sep 22:34

IKEA’s augmented reality app just got a whole lot cleverer

by Trevor Mogg
IKEA Place, the furniture giant's augmented reality app, now lets you virtually place multiple pieces of furniture inside a room instead of just one.
24 Sep 22:19

Amazon, Baidu, Cerence, Microsoft, Tencent, and 30 Other Companies Launch Voice Interoperability Initiative

by Bret Kinsella

Amazon announced today the creation of the Voice Interoperability Initiative, which a media release summarizes as “a new program to ensure voice-enabled products provide customers with choice and flexibility through multiple, interoperable voice services.” In short, this group is focused on enabling the simultaneous presence of multiple assistants on voice-activated devices. That means multiple wake words can be used anytime to access a preferred assistant. The announcement summarizes the “four priorities” of the Voice Interoperability Initiative:

  • Developing voice services that can work seamlessly with others, while protecting the privacy and security of customers
  • Building voice-enabled devices that promote choice and flexibility through multiple, simultaneous wake words
  • Releasing technologies and solutions that make it easier to integrate multiple voice services on a single product
  • Accelerating machine learning and conversational AI research to improve the breadth, quality and interoperability of voice services

The 3 Devices with Simultaneous Wake Words Have One Thing in Common

The first mass-market smart speaker with multiple, simultaneous voice assistants was Facebook’s Portal smart display. That included Facebook’s Portal assistant which has limited functionality related to Facebook content and services and video chat. In addition to “Hey Portal,” users can also say “Alexa,” to access services from Amazon’s assistant anytime.

This was followed by two other smart speakers from Orange and Deutsche Telekom in 2019. Orange’s device also offers Alexa access alongside its own Djingo assistant. Similarly, Deutsche Telekom users can invoke wake words from either “Alexa,” or the company’s own assistant by saying, “Hey Magenta.” As I discussed in this week’s Voice Insider Issue #56, there are three true multi-assistant devices and they all have one thing in common: Alexa.

The Google Assistant Wall

One company that does not offer simultaneous access to multiple voice assistants is Sonos. This is true despite statements going back to 2017 that it would. There is a telling quote from Patrick Spence, Sonos’ CEO, in Amazon’s announcement today which says:

“We value freedom of choice, empowering listeners to choose what they want to listen to and how they want to control it. We were the first company to have two voice assistants working concurrently on the same system, a major milestone for the industry. We are committed to a day where we’ll have multiple voice assistants operating simultaneously on the same device, and are working to make that happen as soon as possible.”

Pay attention to the words “concurrently” and “simultaneously.” The Sonos One smart speaker offers access to both Alexa and Google Assistant, but only one or the other can be accessed at a time. To switch between them requires the device owner to change the configuration settings. That process is manual and as a result, once Sonos One and other smart devices from the company are configured they are effectively either an Alexa or Google Assistant-enabled device and not both. That leads “concurrent” but not “simultaneous” voice assistant access in Sonos marketing nomenclature.

Contacts familiar with the discussions at Sonos tell me that the company wanted the simultaneous access of both Alexa and Google Assistant but Google refused. This is detailed in Voice Insider Issue #25. Similarly, contacts familiar with the efforts behind Orange’s and Deutsche Telekom’s smart speakers tell me each wanted to consider running their own assistant alongside Google Assistant and found it is was not an option. The companies still may have chosen Alexa as their second assistant, but in the end, it was the only option.

Even Telefonica, which demonstrated the integration of its Aura assistant with Google Assistant at Mobile World Congress in 2018, launched its smart display, Movistar Home, without Google Assistant despite rumors to the contrary. Scott Huffman, VP of Google Assistant engineering, even participated in the demonstration an announced Telefonica as among the first to join the Google Assistant Carrier Program. However, that implementation appears to be limited to accessing another assistant after first invoking Google Assistant.

With that said, a Google spokesperson reached out to Voicebot to say that Google is interested in this initiative and plans to consider participation.

“We just heard about this initiative and would need to review the details, but in general we’re always interested in participating in efforts that have the broad support of the ecosystem and uphold strong privacy and security practices.”

Given the breadth of participants, it would not be surprising to have Google jump on board even if they maintain the current policy of not co-mingling Google Assistant with other assistants. Participation would at least enable them to better understand the interests of the industry and requirement preferences of the various members.

Apple, Google, Facebook, Deutsche Telekom, and Samsung Not Represented

Given these circumstances, it may not surprise you that Google is not a member of the Voice Interoperability Initiative. Nor is Apple. The HomePod allows Siri only. You can run Google Assistant, Alexa, Cortana, Hound, and other assistants through iOS apps on Apple devices and they can even have always-listening wake words. However, that can only work if the app is open and in the foreground. You cannot just say “Hey Google” and get a response unless the iOS app is active. Interestingly, while the Google Assistant app is in the foreground you also cannot activate Siri by voice. The microphone channel only allows a single voice-activated wake word at a time. To get back to Siri you can activate the “side” or “home” buttons through long pushes are by moving the Google Assistant app into the background.

The Voice Interoperability Initiative is clearly focused on appliances such as smart speakers, but eventually, there is sure to be a push for this option on smartphones. Samsung, also not a member of the new Amazon-led initiative, faces this conflict today with smartphone users able to set either Bixby or Google Assistant as the always-listening default.

It is notable that Facebook and Deutsche Telek0m are not among the 34 founding members of the Voice Interoperability Initiative, given that both support this today. Voicebot has asked for more clarification on membership requirements and will update this article as we learn more details. However, an Amazon spokesperson confirmed that Apple, Google, Deutsche Telekom, Facebook, and Samsung were contacted and invited to join the group.

Automotive is Furthest Along in Multi-Assistant Experiences

A device segment that has had more success to date with multiple assistants is automotive. BMW is a member of the initiative and does offer access to multiple assistants today and Mercedes-Benz does as well although is not a member. The biggest voice assistant player in cars is Cerence, a business that will officially be spun off from Nuance next week and was formerly known as Nuance Automotive. Sanjay Dhawan, CEO of the new Cerence Inc. commented on his company’s participation saying:

“Today’s cars can be noisy and filled with distractions, so to tap into multiple voice assistants and services seamlessly is paramount for creating the enjoyable, safe and productive in-car experience we’re known for.”

There was a time when Nuance would have been more likely to block the introduction of a second or third voice assistant into cars. However, the rise in consumer popularity of Siri, Google Assistant, Alexa, and other solutions led Nuance automotive to become more tolerant of in-car competition for services based on speech recognition due to requirements of the leading automakers. Cerence, as a separate company, appears ready to formalize this position as supportive of a multi-assistant in-car experience.

Broad Industry Adoption

While some of the biggest voice assistant providers may not have yet joined the initiative, more than a dozen hardware developers, engineering and design companies, and system integrators did join. These companies range from Intel and Qualcomm to InnoMedia and CommScope. It is technically feasible to build solutions today that have multiple wake words and offer simultaneous access to more than one voice assistant. However, there is added cost to the integration and the solutions require more processing, memory, and power consumption. The members in the hardware, engineering, and integration industries will work together to “develop products and services that make it easier and more affordable for OEMs to support multiple wake words on their devices.”

It is also notable that Baidu and Tencent are supporting the initiative. Both have smart speakers in the market and are increasingly important voice assistant providers in China. This is contrasted by the absence of two companies with the largest smart speaker installed base in China, Alibaba and Xiaomi.

Will This Drive a Multi-Assistant Future

Some people are still forecasting a single, clear winner in the voice assistant space. That outcome seems increasingly unlikely and this initiative will make it even easier for consumers to access multiple assistants on devices. It is also a strategic play for Amazon. Jeff Bezos calculated long ago either that it is unlikely a single assistant will win or that if that came to pass, Alexa was unlikely to be that winner. By banding together with a broad set of industry players, there will be fewer barriers to supporting multi-assistant devices and that may eventually lead to consumer expectations along these lines which would, in turn, make it harder for Google or Apple to enforce single assistant policies.

Editors Note: This story was updated at 5:00 pm EDT to include a statement from Google about the initiative and add commentary about a multi-assistant future. 

Follow @bretkinsella Follow @voicebotai

Smart Speaker Sales to Rise 35% Globally in 2019 to 92 Million Units, 15 Million in China, Growth Slows

Sonos Reports Q2 Revenue Growth and will Launch with Google Assistant Next Week, but Not They Way They Originally Hoped

Gene Munster Founder of Loup Ventures Talks Voice SEO, Smart Speaker Sales, and Apple – Voicebot Podcast Ep 113

The post Amazon, Baidu, Cerence, Microsoft, Tencent, and 30 Other Companies Launch Voice Interoperability Initiative appeared first on Voicebot.

24 Sep 05:47

Facebook buys startup building neural monitoring armband

by Lucas Matney

Facebook is buying CTRL-labs, a NY-based startup building an armband that translates movement and the wearer’s neural impulses into digital input signals, a company spokesperson tells TechCrunch.

CTRL-labs raised $67 million according to Crunchbase. The startup’s investors include GV, Lux Capital, Amazon’s Alexa Fund, Spark Capital and Founders Fund, among others. Facebook didn’t disclose how much they paid for the startup, but we’re digging around.

Update: Bloomberg pegs the deal between $500 million and $1 billion. A source close to the matter tells TechCrunch the same.

The acquisition, which has not yet closed, will bring the startup into the company’s Facebook Reality Labs division. CTRL-labs’ CEO and co-founder Thomas Reardon, a veteran technologist whose accolades include founding the team at Microsoft that built Internet Explorer, will be joining Facebook, while CTRL-labs’ employees will have the option to do the same, we are told.

Facebook has talked a lot about working on a non-invasive brain input device that can make things like text entry possible just by thinking. So far, most of the company’s progress on that project appears to be taking the form of university research that they’ve funded. With this acquisition, the company appears to be working more closely with technology that could one day be productized.

“We know there are more natural, intuitive ways to interact with devices and technology. And we want to build them,” Facebook AR/VR VP Andrew Bosworth wrote in a post announcing the deal. “It’s why we’ve agreed to acquire CTRL-labs. They will be joining our Facebook Reality Labs team where we hope to build this kind of technology, at scale, and get it into consumer products faster.”

CTRL-labs’ technology isn’t focused on text-entry as much as it is muscle movement, and hand movements specifically. The startup’s progress was most recently distilled in a developer kit that paired multiple types of sensors together to accurately determine the wearer’s hand position. The wrist-worn device offered developers an alternative to camera-based or glove-based hand-tracking solutions. The company has previously talked about AR and VR input as a clear use case for the kit. Facebook did not give details on what this acquisition means for developers currently using CTRL-labs’ kit.

This acquisition also brings to Facebook the armband patents of North (formerly Thalmic Labs). CTRL-labs purchased the patents related to the startup’s defunct Myo armband earlier this year for an undisclosed sum.

CTRL-labs’ acquisition brings more IP and talent under Facebook’s wings as competitors like Microsoft and Apple continue to build out augmented reality products. There is plenty of overlap between many of the technologies that Oculus is building for Facebook’s virtual reality products, like the Quest and Rift S, but CTRL-Labs’ tech can help the company build input devices that are less bulky, less conspicuous and more robust.

“There are some fundamental advantages that we have over really any camera-based technology — including Leap Motion or Kinect — because we’re directly on the body sensing the signal that’s going from the brain to the hand.” CTRL-labs’ head of R&D, Adam Berenzweig, told TechCrunch in an interview late last year. “There are no issues with collusion or field-of-view problems — it doesn’t matter where your hands are, whether they’re in a glove or a spacesuit.”

Facebook is holding its Oculus Connect 6 developer conference later this week, where the company will be delivering updates on its AR/VR efforts.