Shared posts

11 Oct 12:41

Deux étudiants inventent une poignée de porte qui s’auto-nettoie après chaque usage

by Mélanie D.

Quoi de plus frustrant que de devoir toucher les poignées de portes, sûrement sales, alors qu’on vient tout juste de se laver les mains ? Une situation du quotidien qui fait frémir les plus germaphobes d’entre nous. Pour contrer le problème, deux diplômés de l’Université d’Hong Kong, Sum Ming Wong et Kin Pong Li, ont conçu une poignée de porte qui utilise la lumière comme moyen de stérilisation ! Surprenant, non ?

Vous vous demandez sans doute comment ça marche : et bien, ce tube de verre comprend des bouchons d’aluminium à chaque bout. La poignée est couverte d’un vernis photocatalytique, composé de dioxyde de titanium, réduit en poudre. C’est ce vernis sur le tube qui rend capable la décomposition des bactéries, grâce à une réaction chimique, activée par une lumière UV.

Derrière ce projet, un phénomène qui a touché la Chine pendant les années 2000 : le
syndrome respiratoire aigu sévère (SRAS), une sorte de pneumonie qui a gravement touché la population. Une maladie qui s’est notamment répandue par contact avec la bactérie. Les étudiants expliquent donc que leur “poignée de porte auto-nettoyante” est parfaite pour éviter la contamination des germes, le tout en utilisant un processus de nettoyage basé sur la chimie.

Et oui, les poignées de porte des toilettes publiques sont grandement responsables de la propagation de maladies, comme vous vous en doutez. Alors voilà la solution pour y remédier : une invention qui élimine les bactéries à 99,8%. Ce projet est l’un des gagnants des James Dyson Awards 2019, qui récompensent les meilleurs concepts étudiants, et ce, dans le monde entier. Une innovation qu’on attend impatiemment ! Sinon, en attendant, il existe aussi ce petit robot qui se glisse dans votre lit pour éliminer les bactéries.

Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li
Crédits : Sum Ming Wong et Kin Pong Li

L’article Deux étudiants inventent une poignée de porte qui s’auto-nettoie après chaque usage est apparu en premier sur Creapills.

11 Oct 05:45

Russia’s Yandex introduces an Echo Dot-style smart speaker

by Brian Heater

In May of last year, Yandex launched the Yandex.Station. The $160 smart speaker was a clear logical step for the so-called “Google of Russia.” This week, the company is back with the next-next logical step. The Yandex.Station Mini is essentially its take on the Echo Dot/Google Home Mini.

At 3,990 rubles (around $61), it’s clearly aimed at getting more users on board with its smart assistant. Though Alice has already seen solid growth, with 45 million actively monthly users, per Yandex’s numbers. Still, these low-end smart speakers have been best sellers for both Amazon and Google, both as first-time devices and ways of getting the product in more rooms.

You’ve got your standard functionality on board here, including smart home control, music playback and the like. Along with voice, there’s also gesture control, including the ability to adjust volume with the wave of a hand above the device, which appears to point to some sort of proximity sensor.

The product will be available in Russia at the end of the month.

11 Oct 05:35

Dyson abandons electric car project

by Sean O'Kane
The Dyson Supersonic Hair Dryer Launch Event Photo by Jason Kempin/Getty Images for Dyson

James Dyson is terminating his electric car project. The British entrepreneur announced the news in an all-staff email on Thursday, a copy of which was obtained by The Verge, saying that he and his board of directors decided to stop the effort after unsuccessfully trying to find a buyer. Going forward, Dyson says his company will “concentrate on the formidable task of manufacturing solid-state batteries” as well as other “fundamental” technologies like vision systems, robotics, machine learning, and AI.

“The Dyson automotive team has developed a fantastic car: they have been ingenious in their approach while remaining faithful to our philosophies,” Dyson wrote in the email. “However, though we have tried very hard throughout the...

Continue reading…

08 Oct 21:52

Mirror launches live training sessions that let coaches see you at home

by Dami Lee

Interactive fitness company Mirror, which makes a reflective LCD display for following workouts at home, today announced it’s launching one-on-one personal training. Through two-way audio and video, coaches will be able to lead users through sessions while giving feedback. Users can choose trainers based on workout activity preferences (yoga, strength training, barre, etc.), session length, trainer motivational style, and schedule. At $40 a session, that’s pricier than a SoulCycle class, but still a fraction of the cost of a session with a personal trainer at most gyms.

The 40-inch, 1080p vertical display will set you back $1,495, and a subscription to the monthly content service, which lets you stream over 70 new live classes a week, is...

Continue reading…

08 Oct 21:45

Linksys’ mesh routers can now detect motion using Wi-Fi

by Barbara Krasnoff
Linksys Velop Tri-Band AC2200 Photo courtesy Linksys

Security cameras are all well and good, but what do you do if you really want privacy? Linksys may have come up with a solution with its new Linksys Aware service, which claims to use mesh Wi-Fi to sense motion without the use of cameras or other hardware. The company is offering a free 90-day trial, after which a subscription will cost $2.99 per month or $24.99 annually.

The idea of using Wi-Fi to detect motion without the use of cameras or other sensors is not a new one. While Linksys hasn’t specifically described the technology involved here, the basic concept behind the idea is that the Wi-Fi signals are set up by the router to bounce off each other and cancel each other out; something in motion will interfere with this process and...

Continue reading…

07 Oct 10:08

La marque de cocottes Le Creuset lance une collection Star Wars en collaboration avec Disney

by Mélanie D.

À l’occasion de la sortie du 9ème volet de la célèbre saga Star Wars, la référence made in france des cocottes en fonte a dévoilé des produits à l’effigie des personnages. Que la force soit avec vous… aux fourneaux !

Sur ses réseaux sociaux, Le Creuset a donc annoncé une collaboration exclusive en partenariat avec Disney ! Au programme, des dessous de plats en forme de Faucon Millenium ou d’Étoile de la Mort, mais aussi un assortiment de 3 mini-cocottes droïdes et une plus grande en hommage à Dark Vador.

Mais on vous avoue que notre préféré, c’est le plat Han Solo, qui fait référence à l’une des plus célèbres scènes de l’épisode V. Un véritable coup de génie ! Qui ne rêverait pas d’avoir ça chez soi ? Après, il s’agit de pouvoir y mettre le prix… Le plat du beau contrebandier enfermé dans son bloc de carbonite devrait se vendre pour environ 400 euros.

Pour le moment, les tarifs de cette collection inédite ne sont pas encore affichés, mais on suppose que cela ne devrait pas tarder ! Disponible sur le site officiel de la marque à partir du 1er novembre, on pense que ces plats à succès vont faire des heureux. Sinon, si l’on n’est pas trop “cuisine”, il est toujours possible de simplement aller voir le prochain Star Wars, dans les salles le 18 décembre prochain !

Set de 3 droïdes

Crédits : Le Creuset

Mini-cocotte C-3PO

Crédits : Le Creuset

Mini-cocotte BB-8

Crédits : Le Creuset

Mini-cocotte R2D2

Crédits : Le Creuset

Plat carbonite signature Han Solo

Crédits : Le Creuset
Crédits : Le Creuset
Crédits : Le Creuset

Cocotte Dark Vador

Crédits : Le Creuset

Dessous de plat Étoile de la mort et Faucon Millenium

Crédits : Le Creuset

Salière Porg

Crédits : Le Creuset

L’article La marque de cocottes Le Creuset lance une collection Star Wars en collaboration avec Disney est apparu en premier sur Creapills.

07 Oct 10:08

Cette marque de whisky crée des capsules à croquer pour consommer le whisky sans verre

by Mélanie D.

Oui, vous avez bien lu. Du whisky en capsules à avaler : et pourquoi pas ? En tout cas, il est certain que cette initiative, aussi insolite et créative soit-elle, ne plaît pas à tout le monde… Présentée il y a à peine quelques jours, la “capsule collection” de la fameuse marque écossaise Glenlivet n’a pas vraiment fait l’unanimité. Pourquoi ? Car le petit contenant ressemblerait à de célèbres dosettes de lessive.

Souvenez-vous du scandale des Tide-Pods, l’an dernier. Ces petites portions de lessive à l’apparence colorée peuvent sembler comestibles, mais c’est là où est le danger. Avec de nombreux accidents domestiques liés à ces dosettes, l’idée semble de mauvais goût, c’est sûr.

On pourrait aussi s’interroger sur l’arôme du whisky : qu’en penseraient les fins connaisseurs ? Oui, car pour eux, il serait impossible d’apprécier cet alcool de qualité sous forme de “capsule”. Néanmoins, la marque promet une “explosion parfaite de saveurs” dans la bouche.

Pour créer ces étranges doses, Glenlivet a collaboré avec le bar londonien Tayēr+Elementary à l’occasion de la Cocktail Week de la capitale britannique. Concernant la capsule en elle-même, c’est la startup Notpla qui l’a conçue à base d’algues : à l’instar de Ooho, cette société qui avait créé des capsules d’eau à base de plantes et d’algues.

Un concept aussi bizarre qu’intéressant, qui nous laisse dubitatifs. Nouvelle façon de consommer l’alcool plus durablement, ou simple opération marketing ratée ? À vous de juger !

Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet
Crédits : The Glenlivet

L’article Cette marque de whisky crée des capsules à croquer pour consommer le whisky sans verre est apparu en premier sur Creapills.

06 Oct 19:07

The Fastest Hunk of Junk in the Galaxy is Now a Gorgeous Desk Lamp

by Geeks are Sexy

Thinkgeek used to have a really cool R2-D2 lamp, but it was nowhere as cool as this Millennium Falcon desk lamp from Merchoid!

Join Han Solo and Chewbacca aboard the Millennium Falcon and brighten up your room with this fabulous piece of Star Wars memorabilia. The Millennium Falcon Anglepoise Lamp is in the shape and design of the instantly recognisable and hugely popular ship from the classic Star Wars movies. Standing at approximately 60cm (23.5) tall, this posable lamp is perfect for use in your bedroom or study. The lamp is USB powered and comes with a 3 metre USB cable. This lamp makes a fantastic gift for fans of the original Star Wars movies, and is even more suitable for those who loved the confident and cocky Han Solo.

[Star Wars: Millennium Falcon Desk Lamp]

The post The Fastest Hunk of Junk in the Galaxy is Now a Gorgeous Desk Lamp appeared first on Geeks are Sexy Technology News.

03 Oct 21:42

Google Patents Smart Home Tech To Personalize Your Life

by Kaila Lopez

Google wants to take your smart home to the next level.

get the ‘big 5’ Tech Patents report

Download this data driven report on the patent activity for Google, Facebook, Microsoft, Amazon and more top tech companies.

Email

Since 2013, the tech giant has filed 125 patents related to the smart home, and over time, has acquired or released a slew of smart home devices — including the Nest thermostat. 

But beyond automating everything from room temperature to entertainment systems, the company’s recently granted patent points to a more ambitious strategy for connecting homes in the future.

The patent envisions a reality where smart devices — along with the data they collect — help inform household decisions based on “sensed observations.” 

Sensors, for example, would collect information about household member activity and their “goals” in order to suggest and implement policies. This might include turning off the TV when a child has been watching it for too long, or collectively using 5% less energy within the home.

While the patent aims to encourage more efficient use of smart devices, as well as more specific use, the system outlined in the patent could spark privacy, consent, and security concerns.

Below, we take a look at how this patent works and why it matters.

How the patent works

Google’s patent, filed in October 2018, aims to help households achieve “goals” by sensing, analyzing, and reporting on certain data collected by smart devices around the house. These goals could include eating fewer calories, spending more time outside, yelling less, or spending fewer hours on the internet.

Goals could be suggested by household members (ie parents setting restrictions for their kids) or by computing devices (based on household member interactions with smart devices).

The patent describes a “household policy manager,” which connects to sensors across the house, including — but not limited to — smart thermostats, smart plugs, connected refrigerators, TVs, washer/dryers, lights, alarm systems, stereos, pool heaters, irrigation systems, and cameras.

The manager, which acts like a central monitoring system, connects to all of these sensors and uses them to assess who is in the room, what they are doing, how they might be feeling, and how it relates to their pre-determined goals.

One example describes the manager’s ability to “dynamically adjust an alarm clock … based upon traffic delays, etc.” to help a household member achieve the goal of getting to work everyday by a certain time (say 8AM).

In the below example, the household system uses microphones and videos within smart devices in a bedroom to identify that Sidney is alone in the house, and then triggers an action — in this case, the front door locks and remains locked until another recognized figure returns home.

A traditional smart lock typically allows entry/exit manually via a smartphone app or a keypad. Google’s policy manager, on the other hand, would automatically lock the door based on who is in the house and when, potentially removing human error (like forgetting to lock the door).

One of the benefits of the household policy manager is the ability to track and monitor children without parental supervision. The system could be used to alert parents when children are alone in the house, track how they are behaving, and control their electronics usage.

 

The above example shows how the sensors could be used to enforce certain policies. For example, if a couple decides to watch only one hour of television per day, the household policy manager could automatically shut off the television after the couple has hit its allotment. If no goal has been set, the sensors could record findings that could help inform future viewing policies (ie what type of content to watch, how long, etc).

The policy manager could also detect which household members are watching TV, and change permissions based on who is in the room. If a child is watching TV without parental supervision or with a babysitter, the system could track what the child is watching and for how long. It could then report or control the behavior, like blocking certain channels or turning off the TV after a certain amount of time.

Why it matters

Consumers are adopting more and more “smart” items within their households, from thermostats that automatically adjust the temperature to refrigerators that let you know when they are running low on kale.

For each smart item brought into the house, families add more complexity in monitoring & maintaining the ecosystem. Google claims that its new policy manager would remove the maintenance of each individual smart device and instead make goal-setting a focus for households.

According to Google’s patent filing,

“As society advances, households within the society may become increasingly diverse, having varied household norms, procedures, and rules. Unfortunately, because so-called smart devices have traditionally been designed with pre-determined tasks and/or functionalities, comparatively fewer advances have been made regarding using these devices in diverse or evolving households in the context of diverse or evolving household norms, procedures, and rules.”

The tech giant believes its system would allow these smart sensors to adapt as households change.

However, there are potential concerns around what this patent could mean for the future, especially as we move towards a more connected society.

For one, these sensors would be used to identify highly personal and sensitive information about users, like when they are arguing with raised voices, when people enter or exit the house, or even if household members eat together or separately, and how often. Access to this kind of information could cause questions surrounding the use of this data.

The patent, however, does outline the ability to disconnect these policy managers from the internet, blocking external communications while still allowing the system to function. This, the patent asserts, could help to alleviate any data privacy concerns.

Further, many of the examples outlined in the patent revolve around gathering a wide range of information on children, which could spark concerns around the treatment of the data of minors.

Another concern could be the manipulation of the policy manager system by hackers or bad actors. Someone with access to the whole household system could use its power to track household members or change household policies. For example, someone could hack into the system to gain control of all cameras in the house, unlock doors, disable alarms, and more.

Additionally, system malfunctions could occur. For example, if a smart oven is turned on accidentally, this could increase risk of a disaster.

Though Google has not yet indicated that it plans to release a product based on this patent, the company may receive push back before rolling out a system of this nature.

The post Google Patents Smart Home Tech To Personalize Your Life appeared first on CB Insights Research.

03 Oct 21:35

This fall anime season is full of superheroes, fantasy, and furries

by Michael Moore
Aniplex

This fall season, there are at least 44 new anime series starting, which is a significant challenge for even the most dedicated viewer. It’s time to prioritize. So here are eight of the most intriguing new series from this season, worth checking out for newcomers or longtime anime fans. Most of these shows will be available for viewing internationally within a day of their Japanese air date, thanks to streaming services like Amazon, Crunchyroll, Funimation, and Netflix. We’ll continue to update this post with new information about where and when these shows are streaming as it’s announced.

Along with these eight shows, three of the series (Dr. Stone, Fire Force, and Vinland Saga) from our summer season preview are continuing into the...

Continue reading…

02 Oct 06:07

Navigating Bill Gates’ brain with Netflix filmmaker Davis Guggenheim

by Andrew Marino
Photo by Saeed Adyani / Netflix

This week on our Vergecast interview series, The Verge’s editor-in-chief Nilay Patel chats with filmmaker Davis Guggenheim on his new documentary Inside Bill’s Brain: Decoding Bill Gates, which premiered on Netflix earlier this month.

Davis talks about the two years he spent filming with the Microsoft co-founder, as well as how he got Gates to participate in the film, the structure of the documentary, the most surprising things he learned about the man, and much more. Below is a lightly edited excerpt of the conversation.

Nilay Patel: I thought the most interesting part of the entire thing is when you were alone with him during his “Think Week” and he’s alone in the house and he’s reading books, and over time you see the Diet Coke cans...

Continue reading…

30 Sep 18:19

Google brings its Jacquard wearables tech to Levi’s Trucker Jacket

by Frederic Lardinois

Back in 2015, Google’s ATAP team demoed a new kind of wearable tech at Google I/O that used functional fabrics and conductive yarns to allow you to interact with your clothing and, by extension, the phone in your pocket. The company then released a jacket with Levi’s in 2017, but that was expensive, at $350, and never really quite caught on. Now, however, Jacquard is back. A few weeks ago, Saint Laurent launched a backpack with Jacquard support, but at $1,000, that was very much a luxury product. Today, however, Google and Levi’s are announcing their latest collaboration: Jacquard-enabled versions of Levi’s Trucker Jacket.

These jackets, which will come in different styles, including the Classic Trucker and the Sherpa Trucker, and in men’s and women’s versions, will retail for $198 for the Classic Trucker and $248 for the Sherpa Trucker. In addition to the U.S., it’ll be available in Australia, France, Germany, Italy, Japan and the U.K.

The idea here is simple and hasn’t changed since the original launch: a dongle in your jacket’s cuff connects to conductive yarns in your jacket. You can then swipe over your cuff, tap it or hold your hand over it to issue commands to your phone. You use the Jacquard phone app for iOS or Android to set up what each gesture does, with commands ranging from saving your location to bringing up the Google Assistant in your headphones, from skipping to the next song to controlling your camera for selfies or simply counting things during the day, like the coffees you drink on the go. If you have Bose noise-canceling headphones, the app also lets you set a gesture to turn your noise cancellation on or off. In total, there are currently 19 abilities available, and the dongle also includes a vibration motor for notifications.

2019 09 30 0946 1

What’s maybe most important, though, is that this (re-)launch sets up Jacquard as a more modular technology that Google and its partners hope will take it from a bit of a gimmick to something you’ll see in more places over the next few months and years.

“Since we launched the first product with Levi’s at the end of 2017, we were focused on trying to understand and working really hard on how we can take the technology from a single product […] to create a real technology platform that can be used by multiple brands and by multiple collaborators,” Ivan Poupyrev, the head of Jacquard by Google told me. He noted that the idea behind projects like Jacquard is to take things we use every day, like backpacks, jackets and shoes, and make them better with technology. He argued that, for the most part, technology hasn’t really been added to these things that we use every day. He wants to work with companies like Levi’s to “give people the opportunity to create new digital touchpoints to their digital life through things they already have and own and use every day.”

What’s also important about Jacquard 2.0 is that you can take the dongle from garment to garment. For the original jacket, the dongle only worked with this one specific type of jacket; now, you’ll be able to take it with you and use it in other wearables as well. The dongle, too, is significantly smaller and more powerful. It also now has more memory to support multiple products. Yet, in my own testing, its battery still lasts for a few days of occasional use, with plenty of standby time.

jacquard dongle

Poupyrev also noted that the team focused on reducing cost, “in order to bring the technology into a price range where it’s more attractive to consumers.” The team also made lots of changes to the software that runs on the device and, more importantly, in the cloud to allow it to configure itself for every product it’s being used in and to make it easier for the team to add new functionality over time (when was the last time your jacket got a software upgrade?).

He actually hopes that over time, people will forget that Google was involved in this. He wants the technology to fade into the background. Levi’s, on the other hand, obviously hopes that this technology will enable it to reach a new market. The 2017 version only included the Levi’s Commuter Trucker Jacket. Now, the company is going broader with different styles.

“We had gone out with a really sharp focus on trying to adapt the technology to meet the needs of our commuter customer, which a collection of Levi’s focused on urban cyclists,” Paul Dillinger, the VP of Global Product Innovation at Levi’s, told me when I asked him about the company’s original efforts around Jacquard. But there was a lot of interest beyond that community, he said, yet the built-in features were very much meant to serve the needs of this specific audience and not necessarily relevant to the lifestyles of other users. The jackets, of course, were also pretty expensive. “There was an appetite for the technology to do more and be more accessible,” he said — and the results of that work are these new jackets.

IMG 20190930 102524

Dillinger also noted that this changes the relationship his company has with the consumer, because Levi’s can now upgrade the technology in your jacket after you bought it. “This is a really new experience,” he said. “And it’s a completely different approach to fashion. The normal fashion promise from other companies really is that we promise that in six months, we’re going to try to sell you something else. Levi’s prides itself on creating enduring, lasting value in style and we are able to actually improve the value of the garment that was already in the consumer’s closet.”

I spent about a week with the Sherpa jacket before today’s launch. It does exactly what it promises to do. Pairing my phone and jacket took less than a minute and the connection between the two has been perfectly stable. The gesture recognition worked very well — maybe better than I expected. What it can do, it does well, and I appreciate that the team kept the functionality pretty narrow.

Whether Jacquard is for you may depend on your lifestyle, though. I think the ideal user is somebody who is out and about a lot, wearing headphones, given that music controls are one of the main features here. But you don’t have to be wearing headphones to get value out of Jacquard. I almost never wear headphones in public, but I used it to quickly tag where I parked my car, for example, and when I used it with headphones, I found using my jacket’s cuffs easier to forward to the next song than doing the same on my headphones. Your mileage may vary, of course, and while I like the idea of using this kind of tech so you need to take out your phone less often, I wonder if that ship hasn’t sailed at this point — and whether the controls on your headphones can’t do most of the things Jacquard can. Google surely wants Jacquard to be more than a gimmick, but at this stage, it kind of still is.

IMG 20190930 104137IMG 20190930 104137

30 Sep 06:29

Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir »

by Hubert Guillaud

Kate Crawford (@katecrawford) est la cofondatrice (avec Meredith Whittaker, @mer__edith) de l’AI Now Institute (@AINowInstitute, blog). Chercheuse à Microsoft Research, professeur à l’université de New York, elle est spécialiste de l’étude des implications sociales des systèmes techniques et notamment des effets du Big Data, des algorithmes et de l’Intelligence artificielle. À l’occasion de l’inauguration de la chaire invitée IA et Justice, ouverte à l’École normale supérieure, elle a livré une passionnante présentation sur les enjeux de ces technologies. Prenons le temps de la dérouler !

« Nous sommes confrontés à des systèmes techniques d’une puissance sans précédent, qui impactent très rapidement tous les secteurs, de l’éducation à la santé, de l’économie à la justice… Et la transformation en cours est concomitante à la montée de l’autoritarisme et du populisme ». Cette évolution n’est pas une coïncidence, avance la chercheuse : l’un et l’autre interrogent la centralisation du pouvoir et nécessitent d’améliorer notre compréhension critique des formes de pouvoir. Cette combinaison renforce les difficultés pour maîtriser ces outils et les rendre responsables et nécessite de comprendre en profondeur les relations entre politique, pouvoir et IA. « L’IA est une nouvelle ingénierie du pouvoir ». La science, la société et les autorités doivent trouver les modalités pour qu’elle rende réellement des comptes. « C’est bien plus qu’une question d’équité, de loyauté, d’honnêteté ou de responsabilité ! C’est une question de justice ! », introduit Kate Crawford non sans passion.

Kate Crawford sur la scène de l'ENS
Image : Kate Crawford sur la scène de l’ENS, photographiée par Stéphanie Hare.

Kate Crawford commence par raconter une histoire. Celle d’un projet de recherche de police prédictive, lancée par Jeff Brantingham, l’un des fondateurs du célèbre Predpol (voir « Predpol : la prédiction des banalités » et « Où en est la police prédictive ? »), visant à prédire la criminalité liée aux gangs. Le problème est que cette appartenance à des gangs est déterminée par les services de police d’une manière très subjective et conservée dans des bases de données et sur des fiches très lacunaires et très partiales. Comme l’expliquait un excellent article de The Verge, Brantingham proposait de prédire cette appartenance à partir de différentes données comme l’arme utilisée, le nombre de suspects d’un crime, le lieu et la description du crime que l’on trouve dans les bases de données de la police (le lieu surdéterminant l’association avec un gang sous prétexte qu’un quartier relève de leurs territoires). L’étude a fait l’objet de critiques dans Science. À un colloque, l’un des jeunes coauteurs, alors qu’il était interrogé sur les limites et les implications éthiques de ces recherches, a répondu par un piteux « Je ne suis qu’un ingénieur ». En 2016, un audit sur la base de données CalGang de l’État de Californie a montré des erreurs endémiques sur les dossiers : 23 % des personnes présentent dans ce fichier n’avaient aucune connexion avec des gangs… Les ingénieurs ne peuvent pas pourtant séparer ainsi leur responsabilité des conséquences des outils qu’ils conçoivent, s’énerve Kate Crawford. Pire, cette façon de ne pas reconnaître sa responsabilité est en passe de devenir une norme. Axon, l’entreprise qui vend des caméras de corps à la police (voir « Les caméras pour policier sont-elles une solution ? »), via son laboratoire d’IA, affirme pouvoir prédire la criminalité, en faisant de la reconnaissance faciale pour déterminer l’historique criminel d’une personne et de la détection de menace depuis leur expression faciale ! Nous entrons dans une époque où des procédés techniques sont transformés très rapidement en systèmes. Ce faisant, ils renforcent des biais culturels et les automatisent, en les rendant à la fois invisibles et incontournables.

Crawford se rappelle d’Eliza, le premier chatbot mis au point dans les années 60 par l’informaticien Joseph Weizenbaum. Ce pionnier de l’IA nous avertissait déjà que le séduisant potentiel de l’IA risquait de nous faire oublier et ignorer ses profondes implications politiques. Eliza était un programme d’une grande simplicité, mais nombre de ceux qui ont joué avec ont été impressionnés par le programme, convaincus qu’une personne se cachait derrière pour leur parler « A l’époque, les gens les plus intelligents du monde réfléchissaient à l’intelligence artificielle, et c’était passionnant… » Weizenbaum prévenait déjà pourtant de la désillusion à venir de l’IA et soulignait que ces technologies allaient permettre aux ingénieurs de mettre à distance le coût humain des systèmes qu’ils concevaient. C’est exactement ce qu’affirmait le jeune ingénieur du programme de police prédictive. Nous continuons à ne pas regarder les implications sociales des outils que nous créons. 60 ans plus tard, nous sommes encore empêtrés dans ces problèmes, or, les changements sociaux que produit l’IA sont profonds. Nous devons nous préoccuper de ces enjeux sociaux, éthiques et politiques avec le même engagement et la même rigueur que nous appliquons à l’optimisation des systèmes techniques !

L’IA est à la fois une technologie, une pratique sociale et une infrastructure industrielle

L’IA n’est pas seulement une technologie, comme on le croit souvent. « Quand on parle d’IA, on parle d’une écologie de différentes technologies », qui ont beaucoup évolué ces dernières années. Même le machine learning est un assemblage de différentes techniques, rappelle rapidement la chercheuse. Le mot « intelligence » est un piège, notamment parce que l’intelligence artificielle ne fonctionne pas du tout comme la cognition humaine. Mais l’IA surtout, n’est pas qu’une technique, insiste-t-elle. « C’est aussi une pratique sociale qui nécessite de comprendre qui travaille sur ces systèmes, quelles données sont utilisées, comment sont-elles classées… » Le fait que le milieu de l’IA soit dominé par des hommes, des ingénieurs, majoritairement blancs et appartenant aux catégories supérieures crée et adresse des problèmes spécifiques. Enfin, l’IA, c’est également une industrie particulièrement imbriquée et complexe. C’est ce que tentait de montrer Anatomy of an AI System, un travail mené par la chercheuse et Vladan Joler, directeur du Share Labs, qui dressait la cartographie exhaustive de ce qu’implique l’usage de la commande vocale Amazon Echo. Cette carte montrait que derrière l’appareil, nous sommes confrontés à un système de calcul planétaire qui a des impacts nombreux en terme de ressources, de données, de travail… Cette tentative de décomposition de l’appareil d’Amazon montre combien ce qu’on appelle l’IA est aussi une infrastructure industrielle particulièrement concentrée. À chaque fois que nous demandons l’heure à Alexa, nous activons un système extractiviste en terme de matériaux, de données, de travail… qui a des impacts sociaux, environnementaux, économiques et politiques cachés. « L’IA est une nouvelle ingénierie du pouvoir » (« AI reengineering power »).

Anatomi of AI

En 2008, Chris Anderson de Wired prophétisait la fin de la théorie : c’est-à-dire l’âge où l’analyse des données suffirait pour produire des résultats. On pensait alors, explique Kate Crawford, qu’avec plus de données, les systèmes deviendraient neutres. Mais c’est le contraire qui s’est passé, comme elle le pointait déjà en 2013 dans « les biais cachés des Big Data » (et même avant) : avec la démultiplication des données, « les discriminations ont été démultipliées ». Nous en avons eu depuis chaque jour de nombreux exemples… En 2015, l’application photo de Google était prise à étiqueter des étudiants noirs en « gorilles » (et si elle ne le fait plus, c’est visiblement parce que le terme gorille a été supprimé de son moteur d’annotation !). En 2016, une remarquable enquête de Bloomberg montrait que la livraison en un jour d’Amazon dans les plus grandes villes des États-Unis n’était pas proposée dans les quartiers noirs de ces villes. En 2018, on a découvert qu’Amazon avait utilisé un système d’IA pour faciliter son recrutement. Problème : le système écartait systématiquement les femmes, pour se conformer au modèle en vigueur dans la firme, où 85 % des employés sont des hommes. Après des tentatives de correction inopérantes, Amazon a dû abandonner ce système ! Avec la chercheuse Rashida Richardson et le professeur de droit Jason Schultz (@lawgeek), Kate Crawford a publié en début d’année une analyse des systèmes de police prédictive américains. Les chercheurs soulignent que les systèmes de prédiction des crimes reposent sur des données historiques « sales » voire illégales, mal documentées, produites par des services qui n’ont pas toujours été exemplaires et qui ont consigné des informations bien souvent en violation des droits civils. Travailler depuis ces données pour créer des systèmes de prédiction du crime conduit donc à renforcer les biais, leurs erreurs et inexactitudes de manière systémique.

« Les biais sont devenus le matériel brut de l’IA »

Pour être plus concret encore, la chercheuse amène son public à regarder les images qui alimentent nos systèmes, à ouvrir le capot et comprendre comment fonctionne l’entraînement des systèmes de reconnaissance d’image. Elle prend l’exemple d’un jeu d’images étiquetées couramment utilisé pour l’entraînement des systèmes à la reconnaissance d’image. C’est un jeu de 13 000 images utilisé pour entraîner les systèmes à reconnaître des schémas… Mais qui n’est pas sans biais. Il est composé de 78 % de portraits d’hommes et de 84 % de portraits de personnes blanches, ce qui implique que les systèmes entraînés depuis ces données fonctionneront mieux sur les hommes blancs. Ce jeu a été assemblé principalement en « scrappant » (c’est-à-dire en extrayant des données, pas nécessairement avec le consentement des espaces d’où elles ont été aspirées) des photos provenant de Yahoo News entre 2002 et 2004, d’où le fait que le visage qui est le plus présent dans la base soit celui de George W. Bush. Ce simple exemple souligne combien les jeux de données reflètent les hiérarchies sociales et les structures de pouvoir existantes.

Autre exemple en utilisant AVA, une base de données de vidéos annotées, permettant aux machines de comprendre les actions humaines et les activités humaines, comme de tenir un verre ou d’être assis sur une chaise. Le problème est que quand on regarde les vidéos associées à une activité, comme de jouer avec enfants, vous ne voyez que des femmes, aucun homme. Si vous cherchez la catégorie kicking a person (donner un coup de pied à quelqu’un), vous ne trouverez que des scènes violentes avec hommes pratiquant le kung-fu ! Ces exemples montrent que ces bases d’entraînement dévoilent une vision particulière de nos vies, très normative, très stéréotypée et très limitée.

Ces biais ne contaminent pas que les images, ils se retrouvent également dans les mots que ces systèmes utilisent, que ce soit pour la traduction automatique, comme dans l’étiquetage automatique des images et vidéos. Les mots qu’on utilise sont souvent très connotés au genre, relevait une étude. Ainsi des mots comme « génie » ou « tactique » sont associés majoritairement aux pronoms masculins, alors que des mots comme « beau » ou « lecture », sont associés aux pronoms féminins. Ces biais de langage se retrouvent bien sûr dans l’analyse émotionnelle qui consiste à déterminer des émotions depuis des textes ou des images de visages ou d’attitudes. À sa sortie, l’API de Google sur le langage naturel, associait des termes comme juifs ou gay a des sentiments négatifs (voir « Vers des interactions automatisées et empathiques à la fois »). Le terme White Power est associé à un sentiment positif, contrairement au terme féministe… « Les biais sont devenus le matériel brut de l’IA »

Comme le résume un petit graphique humoristique de l’informaticien Moritz Hardt (@mrtz), on a longtemps pensé que tout allait bien avec le machine learning, jusqu’à ce que les systèmes et les études se démultiplient… et montre l’ampleur du problème de la discrimination, et ce alors que le déploiement de ces systèmes engage et impacte des millions de personnes, explique-t-elle en montrant une image de Jack Nicholson dans Shining, son visage halluciné dans le trou de la porte qu’il vient de défoncer à coup de hache et qu’un logiciel d’analyse d’image qualifie de « joyeux ».


Image : Le visage de Jack Nicholson dans Shining soumis à l’outil d’analyse de sentiment de Microsoft, qui le désigne comme « joyeux ».

Pour répondre à ces biais, les spécialistes travaillent à apporter des réponses techniques, mais dont la portée s’annonce limitée, prévient Kate Crawford. « Il est probable que ces solutions ne résolvent rien, voire empire le problème ». En fait, les chercheurs et ingénieurs font une application erronée de l’équité ou de l’inclusion. Appliquer des corrections statistiques sur un corpus n’est pas si simple. Dans une recherche menée avec Solon Barocas, Aaron Shapiro et Hanna Wallach sur le problème des biais, qui s’est intéressé aux solutions techniques proposées par la recherche à ces questions, celles-ci sont principalement de 3 ordres : elles visent à améliorer la précision, à gommer pour neutraliser et à mieux refléter la démographie. Améliorer la précision consiste à collecter toujours plus de données, d’une manière toujours plus précise donc trop souvent toujours plus invasive. Gommer pour neutraliser consiste par exemple à enlever le terme gorille des possibilités d’étiquetage des images de Google, même pour celles qui montrent véritablement des gorilles. Enfin, mieux refléter la démographie consiste à appliquer des corrections statistiques pour qu’elles soient plus représentatives… Mais comme la chercheuse l’a montré, les biais sont partout et profondément intriqués dans les données. Derrière ces corrections statistiques imparfaites, il est nécessaire de poser des questions plus larges et plus profondes. Quelle idée de neutralité est à l’oeuvre ici ? De quelle neutralité veut-on parler ? Comment compenser les inégalités ? Certes on peut corriger le manque de diversité, mais comment, sur quels critères, selon quelle représentation, avec quelle correction ? Si on reprend le jeu des 13 000 images utilisées précédemment, on peut certes y ajouter un peu de diversité… mais combien ? Qui décide de qui doit être représenté dans cette base ? Dans quelle proportion ? Si on ajoute des femmes présidentes d’entreprise dans ces bases, à quelle proportion faut-il le faire ? Faut-il que le système se base au niveau – bien bas – du nombre de femmes présidentes d’entreprises actuel ? Ou au contraire y projeter un modèle idéal de société où les femmes et les hommes pourraient être représentés comme présidents d’entreprises à parts égales ?… Ce simple choix projeté dans les boucles de ces systèmes devient très vite éminemment politique ! « La parité n’est pas la justice », explique Kate Crawford, en tout cas n’est pas suffisante pour l’imposer. Beaucoup d’articles de recherche actuellement tentent de mettre au point des outils d’évaluation des risques algorithmiques afin de les rendre plus équitables, notamment dans le secteur de la prédiction du crime ou de la justice prédictive. L’enjeu par exemple est de traiter de la même façon les populations criminelles, quelle que soit leur couleur de peau. Mais cette parité est-elle pour autant plus juste, alors que ces populations ne sont pas arrêtées de la même façon ? Pour l’instant, nous n’avons pas de procédures fiables pour améliorer ces systèmes décisionnels correctement… La correction « technique » de ces systèmes – présentée comme neutre et objective – risque surtout de refermer les débats et l’intérêt actuel à regarder concrètement comment ils fonctionnent et les problèmes qu’ils posent, s’inquiète la chercheuse, et les éloigner de la scène du débat politique que nous devons avoir. Cette correction n’est ni « technique », ni un problème d’ingénieur ! Elle porte des enjeux politiques considérables !

Exemple d'image étiquetée d'un loser dans ImageNetAlors qu’elle ne l’évoquait pas sur la scène de l’ENS, signalons que Kate Crawford et l’artiste Trevor Paglen (@trevorpaglen) viennent de lancer un projet provocateur, ImageNet Roulette, qui utilise un réseau de neurones entraîné sur les catégories utilisées pour décrire des images de personnes de la base de données ImageNet, très utilisée pour l’entraînement des systèmes. ImageNet Roulette propose aux gens d’y télécharger un portrait et de voir les étiquettes que lui attribue l’IA. Très souvent, ces étiquettes se révèlent particulièrement cruelles, misogynes ou racistes… Un moyen pour montrer, simplement et concrètement, les problèmes que soulève l’IA. L’essai qui accompagne le projet et l’exposition associée, détaille très concrètement lui aussi les limites des jeux d’entraînements que l’on fournit aux machines, la complexité de leur étiquetage, qu’il soit humain ou auto-apprenant.

« Quand on optimise un système par nature discriminatoire, qu’optimise-t-on ? » Kate Crawford pointe une autre étude, « Les nuances du genre » (voir l’article de Wired) qui a testé plusieurs systèmes de reconnaissance faciale pour montrer qu’ils reconnaissent mieux les hommes que les femmes, quels que soient la couleur de peau, mais qu’ils ont des performances bien moindres avec les femmes que les hommes, et encore bien moindre pour les femmes qui ont les peaux les plus sombres ! « Ce sont toujours les mêmes groupes sociaux qui demeurent, dans la société, comme vue au travers des systèmes techniques, assujettis à l’injustice, à la surveillance, à la pauvreté » (c’est que disait également la chercheuse Virginia Eubanks dans son livre, Automatiser les inégalités).

Les entreprises de la tech se veulent rassurantes. Pour elles, nous pouvons réparer ce problème, il suffit d’élargir les jeux de données pour le corriger ! Mais cela signifie collecter toujours plus d’images, notamment des groupes minoritaires.Des groupes qui sont déjà les plus exposés à la surveillance, au contrôle, aux procédures d’expulsion… En élargissant les jeux de données, nous risquons surtout de rendre les populations les plus fragiles plus faciles à contrôler et à surveiller ! « Une surveillance égalitaire n’est pas l’égalité ! » Au contraire ! Le risque est de développer des atteintes encore plus disproportionnées qu’elles ne sont aux groupes les plus minoritaires et les plus fragiles ! Ces systèmes sont « dangereux quand ils échouent, nocifs quand ils fonctionnent ». « Améliorer un système injuste ne peut que créer un plus grand préjudice ». Dans Nature, la chercheuse a appelé à un moratoire sur les technologies de reconnaissance faciale ! Le président de Kairos, un spécialiste des services de reconnaissance faciale a annoncé vouloir arrêter de vendre ses services à la police… Nos données reflètent la complexité et l’injustice de nos systèmes, rappelle Crawford. Pour répondre à ces problèmes, nous devons augmenter les garanties et les garde-fous pour les plus vulnérables. Automatiser la société ne la rend pas plus juste. Il faut aussi regarder plus largement comment et pour qui un système est utilisé. À qui donne-t-il du pouvoir ? Pour Crawford, il est nécessaire pour les concepteurs de systèmes de se poser des questions (à l’image de celles qu’adressent le dernier rapport le dernier rapport de l’AI Now Institute : votre outil donne-t-il plus de pouvoir aux plus puissants ? Si c’est le cas, il va approfondir les inégalités.

Le pouvoir (et le risque) de classer

Par nature, l’IA classe, segmente et regroupe. C’est une fonctionnalité, pas un bug. Or, la classification a toujours été une forme de pouvoir. La classification produit un préjudice encore plus fort que les biais. La chercheuse rappelle alors rapidement l’histoire de la classification scientifique. Elle évoque notamment la phrénologie, cette pseudoscience qui espérait déterminer l’intelligence ou la criminalité depuis des caractéristiques morphologiques (voir « Les Big Data sont-elles la nouvelle phrénologie ? »). Pour cette pseudoscience, les caractéristiques les plus accablantes étaient réservées aux femmes et aux étrangers. L’enjeu de ces formes de classements était déjà d’affirmer la puissance des puissants.

L’accélération de la classification apparaît à la fin du XIXe siècle. Quand un employé du bureau du recensement américain, Herman Hollerith, invente la mécanographie, une machine statistique fonctionnant à partir de cartes perforées. Inspiré par un poinçonneur de tickets de Tram, Hollerith va mécaniser la lecture des fiches de recensement pour en accélérer le traitement. Il quittera l’administration pour créer sa société qui deviendra en 1917, l’International Business Machine Corporation, plus connue depuis sous le nom d’IBM. En 1934, une filiale allemande d’IBM va fournir ce type de solutions au régime nazi qui va s’en servir pour tenir des registres raciaux de la population.

La science de la classification a toujours flirté et attiré la discrimination et le racisme, rappelle la chercheuse. En 2016, deux chercheurs de l’université de Shanghai, Xiaolin Wu et Xi Zhang, ont publié lors d’une conférence sur le Machine Learning un article où ils affirmaient pouvoir prédire depuis une simple photo de visage si une personne allait devenir un criminel. Naïvement, ils ont affirmé que leur étude était dénuée de biais. Pour la mener, ils ont utilisé une base de donnée de criminels du gouvernement chinois et de l’autre une base de données de photos de conducteurs de taxis… Or, les différences de traits du visage qu’ils ont mis à jour n’en étaient pas. Ils ont confondu les traits du visage et les expressions du visage. Il n’y avait pas de différences dans la structure faciale entre les criminels et ceux qui ne l’étaient pas, mais une différence d’expression : sur les photographies des services de police, les criminels ne souriaient jamais ! Crawford évoque un autre exemple, tiré des travaux du psychologue Michal Kosinski (@michalkosinski), l’étude dite Gaydar, du nom de l’application de rencontre dont les photos ont été extraites… Cette étude a utilisé des réseaux de neurones pour détecter des caractéristiques de milliers de visages permettant de prédire l’orientation sexuelle de quelqu’un depuis ses traits de visages. Pour Crawford, cette étude pose de nombreuses questions méthodologiques et éthiques, notamment quand on considère que le fait d’être gay est une pratique criminalisée par quelque 78 pays à travers le monde et pour certains, punis de la peine de mort (même si l’objection éthique de Crawford est juste, l’étude de Kosinski est plus ambigüe que cela comme le montrent les explications de Carl Bergstrom et Jevin West de l’excellent Calling Bullshit ou, en français, l’article de déconstruction de l’ambiguïté de l’alerte de Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues pour la revue Réseaux). Pour Crawford, quand l’IA cherche à catégoriser les gens sur le genre, la race ou l’identité sexuelle, depuis leur visage, elle fait une erreur conceptuelle et pratique la confusion des catégories, en pensant que ces classements sont des objets fixes, comme le sont une table ou une chaise. Kosinski a justifié son article en expliquant qu’il était important de montrer aux gens que ce type de classements pouvait être accompli. Mais pour Kate Crawford, nous avons une obligation éthique à ne pas faire des choses scientifiquement contestables, capables de causer de sérieux préjudices et marginaliser plus encore les gens marginalisés. « Ce n’est pas parce qu’on peut fabriquer quelque chose qu’on doit le faire ». Il n’est pas indifférent que la possibilité de détecter le crime ou l’homosexualité se produise au moment où le populisme et l’autoritarisme se développent, insiste la chercheuse. Beaucoup de gens souhaitent des systèmes de pouvoir et de contrôle qui n’aient de comptes à rendre à personne. Le sociologue Stuart Hall – tout comme Michel Foucault – affirmait que les « systèmes de classification sont en eux-mêmes des objets de pouvoir ». Toute classification dépend d’une abstraction, qui vise à mettre certaines choses en avant et à en rendre d’autres silencieuses. Qu’est-ce qui est accentué, optimisé ? Qu’est-ce qui est rendu silencieux ? Nous avons le devoir de ne pas reproduire les erreurs du passé !

Géopolitique de l’IA : articuler la Justice et l’IA

Aujourd’hui, le monde entier s’intéresse aux « superpouvoirs » de l’IA, glisse la chercheuse en faisant une référence implicite au best-seller de Kai-Fu Lee (voir « L’intelligence artificielle chinoise, un modèle ? »). De partout, le risque est que l’IA, parce qu’elle est un système de contrôle et de pouvoir, change la démocratie. C’est évident pour nous, occidentaux, quand on regarde le crédit social chinois, qui très concrètement proscrit certains individus, à l’image des 23 millions de Chinois qui sont interdits de se déplacer. Mais la Chine n’est pas le seul vilain petit canard de l’IA. L’analyse de sentiments par exemple, pose d’innombrables problèmes, à l’image de ceux montrés par le scandale Cambridge Analytica ou de HireVue, un système d’entretien d’embauche en vidéo qui calcule de votre prestation un profil psychographique. Le problème ne concerne pas seulement le secteur privé, mais également le secteur public, à l’image de l’Agence de police douanière et de contrôle des frontières américaine qui utilise un système de prévision du risque des migrants arrêté qui a fait tripler la détention des immigrants notamment par l’interconnexion de bases de données. Le nouvel algorithme mis en place en 2017 recommande désormais la détention dans 100 % des cas ! « C’est un outil prédictif qui n’apporte qu’une réponse ». Des milliers d’agents ont accès aux données du système et peuvent les manipuler, par exemple en faisant disparaître les informations permettant de relier des enfants à leurs parents ! Et Crawford d’ironiser : comment la parité et l’équité fonctionnent-elles dans de tels systèmes où des gens à la peau sombre sont facilement identifiés par des gens à la peau blanche qui ne les aideront pas ! Pour la chercheuse, nous touchons là des enjeux majeurs liés aux droits de l’homme, à la responsabilité et aux procédures équitables. La philosophe Hannah Arendt rappelait que ce qui hantait le plus sa génération après le procès de Nuremberg était de comprendre comment cela avait pu arriver ! Et comment avons-nous pu laisser cela arriver ! Elle constatait déjà que la seule chose qui a pu limiter la montée des dérives totalitaires a été de s’opposer à leurs technologies. En 1968, la philosophe nous prévenait déjà :« Le rêve de la police est qu’une carte gigantesque sur les murs de leurs bureaux suffise pour établir à chaque moment qui est en relation avec qui et selon quel niveau d’intimité… » Ce cauchemar ne paraît plus irréalisable aujourd’hui, sa réalisation technique est juste difficile. Pour Crawford, nous avons là une description du danger que nous courons.

Nous avons pourtant déjà répondu à des défis et des dangers de ce type. En matière de risque nucléaire ou de génie génétique par exemple, nous avons tenté d’établir des règles et des garde-fous, estime avec beaucoup d’optimisme la chercheuse. La communauté scientifique doit travailler à comprendre les implications sociales de l’IA, notamment son potentiel à accélérer les inégalités. Pour cela, nous avons besoin d’éthique, estime la chercheuse. Les ingénieurs qui développent ces systèmes ont une grande responsabilité, car les systèmes sur lesquels ils travaillent impactent non seulement des millions de personnes, mais également les générations futures.

L’éthique n’est pourtant pas une solution toute faite qu’il suffirait d’appliquer. Elle interroge comment faire pour que les formes de gouvernance rendent clairement et publiquement des comptes à ceux qu’elles gouvernent. Mais pour Kate Crawford, nous avons surtout besoin d’articuler la question de la justice et de l’IA. Pour elle, l’enjeu tient plus de la justice que de l’équité. D’une justice économique, politique, sociale, environnementale… Il nous faut trouver les moyens pour que ces systèmes automatisés rendent compte de leurs fonctionnements, de leurs actions… Et cela passe nécessairement par le développement de contrôles, de réglementations et de législations. Mais également par les actions individuelles comme collectives que nous menons… Et Kate Crawford de rappeler le rôle de l’ingénieur du recensement français, René Camille, qui a oeuvré contre la machine à identifier les juifs du régime nazi. Chaque ingénieur a un moyen d’utiliser son pouvoir de manière éthique… Pour la chercheuse, nous devons utiliser ce moment critique des technologies qui se fait jour. Souvenons-nous des dangers de l’histoire de la classification, conclut-elle. Et travaillons à nous assurer que nous construisons un monde où chacun pourra vivre.

Après son intervention, Kate Crawford a répondu à quelques questions du public. Pour identifier les biais, interroge une personne, encore faut-il pouvoir les repérer… Beaucoup de données par exemple ne comportent pas d’information sur l’origine ethnique des gens. Pour pouvoir corriger cette question, le risque n’est-il pas qu’on soit toujours plus invasifs à l’encontre de la vie privée ? Et Kate Crawford d’appuyer : à nouveau, même en récoltant des données plus précises, la question demeure de comment les rendre neutres, comment corriger concrètement les résultats ? Bien souvent par exemple, les données raciales sont d’une grande généralité : aux États-Unis, nous avons le plus souvent 4 catégories : noir, blanc, asiatique et autres ! Qui est rangé dans quoi ? Qu’est-ce que ces catégories reflètent ?

Faut-il bannir l’IA dans certains secteurs et si oui, lesquels ? Comment estimer le risque dans l’innovation ?, interroge un autre participant. Il y a 3 ans, personne n’envisageait de bannir la reconnaissance faciale… Et regardez maintenant l’évolution de cette question, notamment en Californie et à San Francisco ! Ça bouge vite. Personnellement, je pense qu’il nous faut des moratoires dans certains secteurs, soutient la chercheuse. Dans le monde de la médecine ou de la pharmacie, on ne laisse pas faire n’importe quoi aux industriels… Cela suppose bien sûr de comprendre les risques, ce qui n’est pas toujours si simple. La qualité des discussions autour de ces enjeux, tant du côté des politiques que du grand public a beaucoup progressé, même si les enjeux sont complexes. Cela demande beaucoup de courage et de pression du public pour contrer la puissance des grandes entreprises du secteur à imposer leur agenda !

Si l’IA est biaisée, les gens portent également leurs propres biais… Entre les biais d’un recruteur humain et les biais d’un recruteur automatique, qui pourrait être le plus objectif ? Peut-on rendre l’IA meilleure que les hommes ?, interroge une autre personne. Ce n’est pas parce que le monde est biaisé que nous devons en ajouter une couche, rétorque Kate Crawford. Certes, le jugement des juges est biaisé, mais ils fonctionnent dans un système où leurs pouvoirs sont contrebalancés. Leurs décisions doivent être motivées. Il y a des garde-fous et des garanties institutionnelles, des procédures, des recours … Dans le domaine des décisions automatisées, nous devons développer des procédures et des garanties également !

Répondant à une autre question sur la collecte de données personnelles toujours plus invasive, la chercheuse souligne que les assistants vocaux par exemple, pour fonctionner, ont besoin de toujours plus de données spécifiques et contextualisées. « Nous sommes dans une course à l’extraction de données et c’est cette culture qu’il faut changer ! » Ces systèmes ne sont pas soutenables et il nous faut des modèles qui utilisent le moins de données possible !

Hubert Guillaud

28 Sep 22:33

Microsoft Releases Vision AI Development Kit Based on Qualcomm’s Vision Intelligence Platform

by Cabe Atwell

During Microsoft’s annual Build developers conference in May of this year, the company unveiled a partnership with Qualcomm to bring about a developer kit for vision machine learning applications. Earlier this month, Microsoft and Qualcomm announced the release of the Vision AI Developer Kit, which includes a smart camera that uses Qualcomm’s Vision Intelligence 300 platform, as well as Microsoft’s Azure IoT Edge and Azure Machine Learning software edge solutions.

The EIC MS Vision Camera provides an 8-megapixel sensor capable of recording in 4K UHD and can be used for many Vision AI applications.

According to Microsoft, “It supports an end-to-end Azure enabled solution with real-time image processing locally on the edge device, and model training and management on Azure. The Vision AI Developer Kit, made by our partner eInfochips, can now be ordered…” Microsoft has also uploaded Visual Studio Code with Python modules, prebuilt Azure IoT deployment configurations, and a Vision AI Developer Kit extension for Visual Studio to the company’s GitHub page.

Included in the kit is the EIC MS Vision SNPE 500 camera, which comes outfitted with Qualcomm’s Snapdragon QCS603 SoC with 4Gb of LPDDR4x RAM, and 16Gb of eMMC for storage. It boasts an 8MP camera sensor capable of recording 4K UHD video, a four microphone array for capturing audio, Qualcomm’s WCN3980 (1X1) 802.11b/g/n (2.4/5GHz) Wi-Fi chip, and a micro SD card slot. There’s also audio in/out jacks, an HDMI port, a USB-C port, and a power button, plus it runs Yacto Linux.

The Vision AI Developer Kit allows users to take advantage of Microsoft’s cloud-based AI and IoT services on Azure to train models while using Qualcomm’s Vision Intelligence Platform.

According to Microsoft, the Vision AI Developer Kit can be used as a workplace safety monitor that checks to make sure workers are wearing hardhats, or provide inventory management, making sure products are stocked on shelves and in their right locations. The Vision AI Developer Kit is now available for $249.


Microsoft Releases Vision AI Development Kit Based on Qualcomm’s Vision Intelligence Platform was originally published in Hackster Blog on Medium, where people are continuing the conversation by highlighting and responding to this story.

26 Sep 05:44

A new Pixel 4 XL leak shows off next-gen Google Assistant and face unlock

by Jay Peters
Illustration by Alex Castro / The Verge

Leaks of the Pixel 4, a phone that we already seem to know a lot about, just keep coming. Nextrift got its hands on what appears to be a production Pixel 4 XL, and it posted impressions and some new details, including what seems to be the first public look at the next-gen Google Assistant, which Google announced in May at Google I/O.

Google says the next-gen Assistant would be “up to 10 times faster,” could respond to questions or requests without requiring you to say “Hey, Google” each time, and queries will be processed on the device instead of being processed at Google’s servers. In Nextrift’s testing of the next-gen Assistant, it says it was “noticeably quicker” at processing requests, and it could actually make requests of the...

Continue reading…

25 Sep 05:44

Finally, a Rotary Cell Phone With Speed Dial

by Kristina Panos

If you’re reading this, chances are good that you’re the family IT department. We do what we can to help them, but there’s just no changing the fact that smartphones are difficult to operate with aging eyes and hands. When [sideburn’s] dad started complaining, he took a different approach. Instead of helping his dad adapt, [sideburn] stuffed modern cell phone guts into a 1970s rotary phone — if all you want to use it for is phone calls, why not reach for a battle-tested handset?

[sideburn] figured out the most important part first, which is getting the thing to ring. The bells in those old phones are driven by a huge relay that requires a lot of voltage, so he boosted a 3.2V rechargeable to 34V. Then it was just a matter of getting the GSM module to play nice with the microcontroller, and programming a MOSFET to trigger the boost module that makes the beast jingle.

The worst thing about rotary phones is that they were never meant to be dialed in a hurry. But [sideburn] took care of that. Once Rotocell was up and working, he added an SMS interface that makes the phone a lot more useful. Dad can add contacts to Rotocell by texting the name and number to it from a modern phone. Once it’s in there, he can dial by name, speeding up the process a tiny bit.

The SMS interface can also report back the signal strength and battery level, and will send battery low alerts when it’s under 20%. You can see Rotocell in action after the break.

Got an old rotary or two lying about? If modernizing the internals to make calls doesn’t light up your circuits, try turning it into a voice-controlled assistant instead.

24 Sep 22:34

IKEA’s augmented reality app just got a whole lot cleverer

by Trevor Mogg
IKEA Place, the furniture giant's augmented reality app, now lets you virtually place multiple pieces of furniture inside a room instead of just one.
24 Sep 22:19

Amazon, Baidu, Cerence, Microsoft, Tencent, and 30 Other Companies Launch Voice Interoperability Initiative

by Bret Kinsella

Amazon announced today the creation of the Voice Interoperability Initiative, which a media release summarizes as “a new program to ensure voice-enabled products provide customers with choice and flexibility through multiple, interoperable voice services.” In short, this group is focused on enabling the simultaneous presence of multiple assistants on voice-activated devices. That means multiple wake words can be used anytime to access a preferred assistant. The announcement summarizes the “four priorities” of the Voice Interoperability Initiative:

  • Developing voice services that can work seamlessly with others, while protecting the privacy and security of customers
  • Building voice-enabled devices that promote choice and flexibility through multiple, simultaneous wake words
  • Releasing technologies and solutions that make it easier to integrate multiple voice services on a single product
  • Accelerating machine learning and conversational AI research to improve the breadth, quality and interoperability of voice services

The 3 Devices with Simultaneous Wake Words Have One Thing in Common

The first mass-market smart speaker with multiple, simultaneous voice assistants was Facebook’s Portal smart display. That included Facebook’s Portal assistant which has limited functionality related to Facebook content and services and video chat. In addition to “Hey Portal,” users can also say “Alexa,” to access services from Amazon’s assistant anytime.

This was followed by two other smart speakers from Orange and Deutsche Telekom in 2019. Orange’s device also offers Alexa access alongside its own Djingo assistant. Similarly, Deutsche Telekom users can invoke wake words from either “Alexa,” or the company’s own assistant by saying, “Hey Magenta.” As I discussed in this week’s Voice Insider Issue #56, there are three true multi-assistant devices and they all have one thing in common: Alexa.

The Google Assistant Wall

One company that does not offer simultaneous access to multiple voice assistants is Sonos. This is true despite statements going back to 2017 that it would. There is a telling quote from Patrick Spence, Sonos’ CEO, in Amazon’s announcement today which says:

“We value freedom of choice, empowering listeners to choose what they want to listen to and how they want to control it. We were the first company to have two voice assistants working concurrently on the same system, a major milestone for the industry. We are committed to a day where we’ll have multiple voice assistants operating simultaneously on the same device, and are working to make that happen as soon as possible.”

Pay attention to the words “concurrently” and “simultaneously.” The Sonos One smart speaker offers access to both Alexa and Google Assistant, but only one or the other can be accessed at a time. To switch between them requires the device owner to change the configuration settings. That process is manual and as a result, once Sonos One and other smart devices from the company are configured they are effectively either an Alexa or Google Assistant-enabled device and not both. That leads “concurrent” but not “simultaneous” voice assistant access in Sonos marketing nomenclature.

Contacts familiar with the discussions at Sonos tell me that the company wanted the simultaneous access of both Alexa and Google Assistant but Google refused. This is detailed in Voice Insider Issue #25. Similarly, contacts familiar with the efforts behind Orange’s and Deutsche Telekom’s smart speakers tell me each wanted to consider running their own assistant alongside Google Assistant and found it is was not an option. The companies still may have chosen Alexa as their second assistant, but in the end, it was the only option.

Even Telefonica, which demonstrated the integration of its Aura assistant with Google Assistant at Mobile World Congress in 2018, launched its smart display, Movistar Home, without Google Assistant despite rumors to the contrary. Scott Huffman, VP of Google Assistant engineering, even participated in the demonstration an announced Telefonica as among the first to join the Google Assistant Carrier Program. However, that implementation appears to be limited to accessing another assistant after first invoking Google Assistant.

With that said, a Google spokesperson reached out to Voicebot to say that Google is interested in this initiative and plans to consider participation.

“We just heard about this initiative and would need to review the details, but in general we’re always interested in participating in efforts that have the broad support of the ecosystem and uphold strong privacy and security practices.”

Given the breadth of participants, it would not be surprising to have Google jump on board even if they maintain the current policy of not co-mingling Google Assistant with other assistants. Participation would at least enable them to better understand the interests of the industry and requirement preferences of the various members.

Apple, Google, Facebook, Deutsche Telekom, and Samsung Not Represented

Given these circumstances, it may not surprise you that Google is not a member of the Voice Interoperability Initiative. Nor is Apple. The HomePod allows Siri only. You can run Google Assistant, Alexa, Cortana, Hound, and other assistants through iOS apps on Apple devices and they can even have always-listening wake words. However, that can only work if the app is open and in the foreground. You cannot just say “Hey Google” and get a response unless the iOS app is active. Interestingly, while the Google Assistant app is in the foreground you also cannot activate Siri by voice. The microphone channel only allows a single voice-activated wake word at a time. To get back to Siri you can activate the “side” or “home” buttons through long pushes are by moving the Google Assistant app into the background.

The Voice Interoperability Initiative is clearly focused on appliances such as smart speakers, but eventually, there is sure to be a push for this option on smartphones. Samsung, also not a member of the new Amazon-led initiative, faces this conflict today with smartphone users able to set either Bixby or Google Assistant as the always-listening default.

It is notable that Facebook and Deutsche Telek0m are not among the 34 founding members of the Voice Interoperability Initiative, given that both support this today. Voicebot has asked for more clarification on membership requirements and will update this article as we learn more details. However, an Amazon spokesperson confirmed that Apple, Google, Deutsche Telekom, Facebook, and Samsung were contacted and invited to join the group.

Automotive is Furthest Along in Multi-Assistant Experiences

A device segment that has had more success to date with multiple assistants is automotive. BMW is a member of the initiative and does offer access to multiple assistants today and Mercedes-Benz does as well although is not a member. The biggest voice assistant player in cars is Cerence, a business that will officially be spun off from Nuance next week and was formerly known as Nuance Automotive. Sanjay Dhawan, CEO of the new Cerence Inc. commented on his company’s participation saying:

“Today’s cars can be noisy and filled with distractions, so to tap into multiple voice assistants and services seamlessly is paramount for creating the enjoyable, safe and productive in-car experience we’re known for.”

There was a time when Nuance would have been more likely to block the introduction of a second or third voice assistant into cars. However, the rise in consumer popularity of Siri, Google Assistant, Alexa, and other solutions led Nuance automotive to become more tolerant of in-car competition for services based on speech recognition due to requirements of the leading automakers. Cerence, as a separate company, appears ready to formalize this position as supportive of a multi-assistant in-car experience.

Broad Industry Adoption

While some of the biggest voice assistant providers may not have yet joined the initiative, more than a dozen hardware developers, engineering and design companies, and system integrators did join. These companies range from Intel and Qualcomm to InnoMedia and CommScope. It is technically feasible to build solutions today that have multiple wake words and offer simultaneous access to more than one voice assistant. However, there is added cost to the integration and the solutions require more processing, memory, and power consumption. The members in the hardware, engineering, and integration industries will work together to “develop products and services that make it easier and more affordable for OEMs to support multiple wake words on their devices.”

It is also notable that Baidu and Tencent are supporting the initiative. Both have smart speakers in the market and are increasingly important voice assistant providers in China. This is contrasted by the absence of two companies with the largest smart speaker installed base in China, Alibaba and Xiaomi.

Will This Drive a Multi-Assistant Future

Some people are still forecasting a single, clear winner in the voice assistant space. That outcome seems increasingly unlikely and this initiative will make it even easier for consumers to access multiple assistants on devices. It is also a strategic play for Amazon. Jeff Bezos calculated long ago either that it is unlikely a single assistant will win or that if that came to pass, Alexa was unlikely to be that winner. By banding together with a broad set of industry players, there will be fewer barriers to supporting multi-assistant devices and that may eventually lead to consumer expectations along these lines which would, in turn, make it harder for Google or Apple to enforce single assistant policies.

Editors Note: This story was updated at 5:00 pm EDT to include a statement from Google about the initiative and add commentary about a multi-assistant future. 

Follow @bretkinsella Follow @voicebotai

Smart Speaker Sales to Rise 35% Globally in 2019 to 92 Million Units, 15 Million in China, Growth Slows

Sonos Reports Q2 Revenue Growth and will Launch with Google Assistant Next Week, but Not They Way They Originally Hoped

Gene Munster Founder of Loup Ventures Talks Voice SEO, Smart Speaker Sales, and Apple – Voicebot Podcast Ep 113

The post Amazon, Baidu, Cerence, Microsoft, Tencent, and 30 Other Companies Launch Voice Interoperability Initiative appeared first on Voicebot.

24 Sep 05:47

Facebook buys startup building neural monitoring armband

by Lucas Matney

Facebook is buying CTRL-labs, a NY-based startup building an armband that translates movement and the wearer’s neural impulses into digital input signals, a company spokesperson tells TechCrunch.

CTRL-labs raised $67 million according to Crunchbase. The startup’s investors include GV, Lux Capital, Amazon’s Alexa Fund, Spark Capital and Founders Fund, among others. Facebook didn’t disclose how much they paid for the startup, but we’re digging around.

Update: Bloomberg pegs the deal between $500 million and $1 billion. A source close to the matter tells TechCrunch the same.

The acquisition, which has not yet closed, will bring the startup into the company’s Facebook Reality Labs division. CTRL-labs’ CEO and co-founder Thomas Reardon, a veteran technologist whose accolades include founding the team at Microsoft that built Internet Explorer, will be joining Facebook, while CTRL-labs’ employees will have the option to do the same, we are told.

Facebook has talked a lot about working on a non-invasive brain input device that can make things like text entry possible just by thinking. So far, most of the company’s progress on that project appears to be taking the form of university research that they’ve funded. With this acquisition, the company appears to be working more closely with technology that could one day be productized.

“We know there are more natural, intuitive ways to interact with devices and technology. And we want to build them,” Facebook AR/VR VP Andrew Bosworth wrote in a post announcing the deal. “It’s why we’ve agreed to acquire CTRL-labs. They will be joining our Facebook Reality Labs team where we hope to build this kind of technology, at scale, and get it into consumer products faster.”

CTRL-labs’ technology isn’t focused on text-entry as much as it is muscle movement, and hand movements specifically. The startup’s progress was most recently distilled in a developer kit that paired multiple types of sensors together to accurately determine the wearer’s hand position. The wrist-worn device offered developers an alternative to camera-based or glove-based hand-tracking solutions. The company has previously talked about AR and VR input as a clear use case for the kit. Facebook did not give details on what this acquisition means for developers currently using CTRL-labs’ kit.

This acquisition also brings to Facebook the armband patents of North (formerly Thalmic Labs). CTRL-labs purchased the patents related to the startup’s defunct Myo armband earlier this year for an undisclosed sum.

CTRL-labs’ acquisition brings more IP and talent under Facebook’s wings as competitors like Microsoft and Apple continue to build out augmented reality products. There is plenty of overlap between many of the technologies that Oculus is building for Facebook’s virtual reality products, like the Quest and Rift S, but CTRL-Labs’ tech can help the company build input devices that are less bulky, less conspicuous and more robust.

“There are some fundamental advantages that we have over really any camera-based technology — including Leap Motion or Kinect — because we’re directly on the body sensing the signal that’s going from the brain to the hand.” CTRL-labs’ head of R&D, Adam Berenzweig, told TechCrunch in an interview late last year. “There are no issues with collusion or field-of-view problems — it doesn’t matter where your hands are, whether they’re in a glove or a spacesuit.”

Facebook is holding its Oculus Connect 6 developer conference later this week, where the company will be delivering updates on its AR/VR efforts.

22 Sep 12:06

Ce bol de céréales avec un haut-parleur intégré amplifie le bruit des céréales qui crépitent

by Mélanie D.

Au petit-déjeuner, le son des céréales Kellogg’s qui crépitent est bien connu, et la plupart d’entre nous s’en souviennent de leur enfance. Et pour les petits comme les grands, ceux qui aiment toujours autant écouter les céréales faire du bruit, pourquoi ne pas augmenter le volume ? Voici l’idée insolite du jour, qui a forcément piqué notre curiosité !

Ce bol “technologique” (produit à la demande de Kellogg’s) amplifie le bruit des Rice Krispies qui, après avoir versé du lait dessus, se mettent à émettre ce son si particulier. A l’aide d’un microphone et d’un bouton de contrôle du volume, il suffit de monter le son et voilà !

Un concept farfelu qui nous vient de Dominic Wilcox, artiste et fondateur de l’organisation à but non-lucratif, Little Inventors. Il s’est mis en tête de fabriquer cet amusant bol de céréales avec une sorte de haut-parleur rouge. L’artiste a créé ce bol en réponse au challenge donné par Kellogg’s pour “rendre le petit-déjeuner plus intéressant”.

Alors, on ne sait pas ce que vous en pensez, mais nous, on trouve que ce projet complètement fou sera rangé dans la case des “objets inutiles mais créatifs”. Pour plus de curiosités du même genre, voici Matt Benedetto et ses créations insolites ainsi que le studio PUTPUT qui crée des objets inutilisables !

Crédits : Dominic Wilcox / Little Inventors
Crédits : Dominic Wilcox / Little Inventors
Crédits : Dominic Wilcox / Little Inventors
Crédits : Dominic Wilcox / Little Inventors

L’article Ce bol de céréales avec un haut-parleur intégré amplifie le bruit des céréales qui crépitent est apparu en premier sur Creapills.

19 Sep 21:08

Electronic “Sand Timer” Simplifies Board Game Timekeeping

by Jeremy S. Cook

Sand and electronics usually go together only slightly better than if you were using water, but this electronic sand timer seems to be an exception, if only in name. That aside, no sand was used in the construction of the device… unless you count the silicon in the electronics, which would entirely negate the previous sentence. However you want to classify them, these gadgets take the place of hourglasses in board games, representing a major improvement over their non-electronic silicon cousins.

One improvement is that these units don’t need to somehow be physically reset by draining sand from one end to another. You simply press a button and it starts, blinking a green LED progressively faster, then a red light for around 20 seconds when done. They’re also incredibly compact, fitting inside the same footprint as the mechanical type — approximately the size of a quarter — while being much shorter. Speaking of that, perhaps the most impressive thing about its product listing on Tindie — $22 for 6 units — is the image of its PIC10LF320 microcontroller. This is dwarfed by a grain of rice, and makes George Washington on the quarter on the other side of it look like something from Easter Island.

The electronic sand timers run on included coin-cell batteries, which can power them for years at a time. Timers can be configured to finish after between 15 seconds and three minutes, and when you finally do have to change the batteries, it will still remember your settings.

https://medium.com/media/2c33aaedf99b75bd2acf0fea84bc4397/href

Electronic “Sand Timer” Simplifies Board Game Timekeeping was originally published in Hackster Blog on Medium, where people are continuing the conversation by highlighting and responding to this story.

19 Sep 20:54

Impossible Burgers are hitting their first grocery stores tomorrow

by Jon Porter
Image: Impossible Foods

The Impossible Burger, a meat-free burger that’s previously only been available in restaurants, will be available to buy in grocery stores for the first time this week. Starting tomorrow, September 20th, you’ll be able to buy the plant-based burger in 27 Gelson’s Markets stores in Southern California. Impossible Foods says it will bring the burger to more grocery stores — including some on the East Coast — later this month, and it plans to reach every region of the US by the middle of next year.

The launch brings Impossible Foods into even closer competition with Beyond Meat, which already sells its own meat-free burger in grocery stores in addition to restaurants. When it announced its latest burger back in June, Beyond Meat said that...

Continue reading…

19 Sep 07:31

Juno Captures Stunning Images of a Solar Eclipse on Jupiter

by Kristin Houser
While performing a close flyby of Jupiter, NASA's Juno spacecraft captured several stunning images of a solar eclipse on the gas giant.

Mr. Shadow

On September 12, NASA’s Juno spacecraft performed its twenty-second close flyby of Jupiter, careening down until it was just 8,000 kilometers (4,970 miles) above the gas giant’s clouds

From that epic vantage point, Juno then snapped a stunning series of photos of the shadow of Jupiter’s moon Io on the planet. In other words, it captured images of a solar eclipse on a planet besides Earth from space.

While performing a close flyby of Jupiter, NASA's Juno spacecraft captured several stunning images of a solar eclipse on the gas giant.
Image Credit: NASA/JPL-Caltech/SwRI/MSSS/Kevin M. Gill

New Perspective

The images of Jupiter’s solar eclipse are breathtaking. It almost looks like someone drilled a hole through to the planet’s center, or perhaps spilled a really, really big vat of Vantablack on Jupiter’s surface.

But no, the images depict a natural phenomenon that happens regularly here on Earth — but thanks to Juno, we’re able to appreciate it in a way never before possible.

While performing a close flyby of Jupiter, NASA's Juno spacecraft captured several stunning images of a solar eclipse on the gas giant.
Image Credit: NASA / JPL-Caltech / SwRI / MSSS / Björn Jónsson

READ MORE: NASA’s Juno Mission Checks Out Eclipse on Jupiter [Space.com]

More on Jupiter: A Giant Volcano on One of Jupiter’s Moons Is About to Erupt

The post Juno Captures Stunning Images of a Solar Eclipse on Jupiter appeared first on Futurism.

18 Sep 17:07

Descript Acquires Lyrebird and Lands $15 Million in Funding From Andreessen Horowitz and Redpoint

by Bret Kinsella

TechCrunch reported this morning that Descript has acquired synthetic voice generation company Lyrebird and closed a $15 million funding round led by Andreessen Horowitz and Redpoint. Lyrebird is well known in the voice technology community for its online voice synthesis demo which enabled users to speak a number of phrases and the service would generate a synthetic voice of the user. That demo appears to be gone as the old Lyrebird website now redirects to a page on Descript’s site.

Lyrebird had previously raised $120,000 as part of its Y-Combinator participation in 2017. Pitchbook lists the company’s post-money valuation as $1.71 million at the time. Terms of the acquisition of the Montreal-based company were not disclosed. The reason Descript wanted Lyrebird’s technology is for the new Overdub feature that will enable podcasters to more easily add audio to previously recorded materials. Descript was originally focused around what it calls Audio Word Processing for podcasters but a recent update also enables users to record podcasts directly in the software and automatically generate transcripts.

The new investment from Andreessen Horowitz follows a $5 million seed investment by the firm in December 2017 when the company was founded and separated from its progenitor, Detour. Descript’s post-money valuation at the time was $25 million according to Pitchbook data. Andrew Mason, best known as the founder of Groupon, also founded Descript which he spun out of Detour, an earlier company which raised $10 million and eventually was sold to Bose for an undisclosed amount. Detour was an audio tour guide solution and the company built the solution underlying Descript in order to more easily edit their audio files.

How Lyrebird and Overdub Will Benefit Podcasters

Descript started as an audio transcription software solution and later added a “white glove” human transcription option. The key value behind the solution is the transcription editor. It enables you to correct text inline without changing the audio in order to correct transcription errors or you can delete the text and have the audio automatically reflect the removal. Lyrebird is the technology behind Descript’s new Overdub feature. If the user has taken the step to create a Lyrebird synthetic replica of their voice, they can actually insert words or replace words in the text editor and Descript will insert the audio as if the speaker had said the word or phrase.

The benefit according to Descript is saving time when minor updates need to be made to audio files. In the past, if a number was stated incorrectly and needed to be updated in an audio file, the podcaster would need to record the correct word and then splice it into the audio. This takes time and can be cumbersome for podcasters that are not skilled in audio production and editing. Changing by text and having the Lyrebird solution overdub the audio takes a matter of seconds. It may not quite match the quality of splicing in a human voice recording, but it does offer the benefit of efficiency.

Descript has taken steps to prevent this technology from being used for deep fakes. Mason notes in a blog post this morning “Rest assured, you can only use Overdub on your own voice. We built this feature to save you the tedium of re-recording/splicing time every time you make an editorial change, not as a way make deep fakes… in order to train a voice model, you need to record yourself speaking randomly generated sentences, preventing others from using pre-existing recordings to create a model of your voice.”

Collaboration is the Differentiator

Mason suggests in the TechCrunch interview that Descript’s collaboration feature is its key differentiator. There are many transcription and audio editing tools on the market but they are designed for use by individuals. “In live multiuser collaboration, there is still no other tool out there that has done what we have done with large uncompressed audio files. That is no small feat, and it has taken time to get it right. I have seen this transition manifest from documents to spreadsheets to product design. No one would have thought of something like product design to be huge space but just by taking these tools for collaboration and successfully porting them to the cloud,” Mason told TechCrunch’s Ingrid Lunden.

This comment is underscored by the fact that the editor and collaboration tools are the company’s core innovation. Mason said that Descript has not developed its own natural language processing (NLP) technology but instead uses Google tools for transcription. His view is that this space is largely a commodity today. The editing and collaboration tools are what makes Descript unique and now Lyrebird enhances that with some core technology differentiation.

Follow @bretkinsella Follow @voicebotai

Verbit Raises $23 Million from Viola Ventures to Expand Automated Transcription and Captioning Solution

Tom Livne CEO of Verbit.ai Talks Voice and Transcription – Voicebot Podcast Ep 89

Rupal Patel CEO of VocaliD Discusses Customized Synthetic Voices – Voicebot Podcast Ep 102

Voice Startup Funding in 2019 Set to Nearly Triple Says European VC Mangrove and “Voice Economy” to Be a Trillion Dollar Market in 2025

The post Descript Acquires Lyrebird and Lands $15 Million in Funding From Andreessen Horowitz and Redpoint appeared first on Voicebot.

18 Sep 12:03

MouseAir Launches Fake Mice for Kitty Entertainment

by Jeremy S. Cook

One could argue the relative merits of cats versus dogs as the superior pet, but if you happen to be a cat person whose feline companion is in need of a bit more entertainment, MouseAir presents a very interesting solution. The device uses a camera and artificial intelligence via a Raspberry Pi to determine when a kitty walks into view, then fires a mouse for it to chase.

Physically, the build consists of a rack-and-pinion gear that slowly pulls the mouse into launch position under servo control. During this process, a pair of motors spins up like some sort of softball pitching machine, and when the stuffed animal mouse hits the launch spinners, it’s flung into the air for the cat’s entertainment.

A Pi2Grover connector interface and a dedicated MouseAir board assist the Pi with thrower control, while a mouse detector IR sensor is employed to prevent “dry firing.” An ultrasonic distance is available on the front, along with an arrangement of RGB LED lights that could provide user interface for humans — or perhaps felines. A Blynk control panel and a webpage is also implemented for control details.

The contraption is now funding on Kickstarter, with reward levels that vary as to what is provided versus what you supply. The project is open source, so how it works — or if you want to make it a little differently — is entirely up to your imagination!


MouseAir Launches Fake Mice for Kitty Entertainment was originally published in Hackster Blog on Medium, where people are continuing the conversation by highlighting and responding to this story.

18 Sep 11:54

Ce capteur vous indique en quelques secondes si un produit se recycle ou non

by Mélanie D.

Ça nous arrive à tous : après l’utilisation d’un produit, comment savoir s’il peut vraiment être recyclé, et si oui, dans quelle poubelle. Un casse-tête quotidien, duquel un studio de design souhaite nous sauver. Cohda a mis au point un gadget, capable d’analyser nos déchets et de nous indiquer s’ils sont recyclables ou non.

RID (Recycling Identification Device) est un petit appareil qui utilise une technologie basée sur la spectroscopie dans l’infrarouge proche (SPIR), qui émet une lumière invisible vers un objet. Puisque chaque objet absorbe différentes longueurs d’onde de lumière, le gadget peut identifier la composition de chacun, et donc nous informer sur la manière dont l’objet doit être recyclé.

Sans avoir à vous prendre la tête, et en quelques instants, vous saurez si vous devez recycler ou non un objet. Si c’est recyclable, R.I.D s’éclairera en vert. Si ce n’est pas le cas, en rouge. L’avantage ? Ce capteur n’a pas besoin de connexion Internet, ni d’application dédiée. Il ne requiert qu’un coup de charge occasionnel !

Malheureusement, pour le moment, il ne s’agit que d’un concept. Les créateurs recherchent donc le soutien du gouvernement pour réaliser ce projet, pour que les administrations le distribuent aux citoyens, afin de rendre le processus de recyclage plus efficace.

Crédits : Cohda
Crédits : Cohda
Crédits : Cohda
Crédits : Cohda
Crédits : Cohda

L’article Ce capteur vous indique en quelques secondes si un produit se recycle ou non est apparu en premier sur Creapills.

17 Sep 20:17

Google may reveal ‘Nest Wifi’ with beacons that double as smart speakers on October 15th

by Sean Hollister

Google’s mesh Wi-Fi router — Google Wifi — is nearly three years old, but it may be getting a radically different design next month. 9to5Google is reporting that the company is prepping a new “Nest Wifi” that pairs a single new hub router with two new “beacons” that will double as Google Assistant smart speakers, giving you the equivalent of two additional Google Home Mini speakers to cover additional rooms of your house with both Wi-Fi and sound.

You may note that Google would be effectively copying Amazon’s second-gen Eero router by going with a pair of beacons to extend Wi-Fi coverage across your house, which could have pros and cons. In our review, we found the second-gen Eero to be just as capable as the first-gen model overall, but...

Continue reading…

17 Sep 06:11

Amazon on the hunt for paw-some UK pets

by Scott Thompson

Amazon has launched a Face of Amazon Pets 2019 competition in the UK.

People are invited to enter by sharing their best pet picture or video via social media, stating why their cat, dog etc should win and including the hashtag #AmazonPets2019. The winner will receive the likes of a professional photoshoot, a £1,000 Amazon promo code and the chance to feature as the star of the Face of Amazon Pets. The competition closes at midnight on 6th October.

Amazon has also launched Pet Profiles on Amazon.co.uk. Customers can fill out breed, age and preference information as well as upload their own shots to create a profile for their pet. They will then receive personalised product recommendations and deals from the Pet Supplies Store.

“We want to celebrate all creatures great and small by giving them a chance to be the Face of Amazon Pets and, with almost half of all UK households owning a pet, we’re expecting the competition to be ‘fur-midable’," says Matthew Redfearn, Pet Supplies Category Leader, Amazon.co.uk.

"We know the UK love pampering their pets which is why we’re also delighted to launch Pet Profiles on Amazon to help our customers get great deals and personalised recommendations for their furry, scaly or feathery friends.”

Sign up for our free retail technology newsletter here.

14 Sep 22:21

Cette machine circulaire presse les oranges et transforme les pelures en gobelets grâce à l’impression 3D

by Mélanie D.

La firme italienne de design Carlo Ratti, en partenariat avec la compagnie d’énergie ENI, ont créé ensemble la campagne “Feel the Peel”. Ce projet à l’aspect environnemental comprend un presse-orange géant circulaire, qui peut contenir jusqu’à environ 1500 oranges !

Après en avoir extrait le jus, la machine sèche la pelure restante et la transforme en filament bioplastique. À l’aide d’une imprimante 3D, on en fait des gobelets biodégradables, dans lesquels le jus fraîchement pressé y est versé !

Bien sûr, rien n’est parfait. Après usage, ces gobelets doivent être jetés ou mis au compost. Malgré tout, ce projet illustre parfaitement la facilité de montrer le développement durable en tant qu’expérience interactive, qui récompense le consommateur pour avoir participé. Un marketing respectueux de l’environnement, efficace et innovant !

Crédits : Carlo Ratti
Crédits : Carlo Ratti
Crédits : Carlo Ratti
Crédits : Carlo Ratti
Crédits : Carlo Ratti
Crédits : Carlo Ratti

L’article Cette machine circulaire presse les oranges et transforme les pelures en gobelets grâce à l’impression 3D est apparu en premier sur Creapills.

08 Sep 17:09

BMW a dévoilé une voiture… vraiment noire

by Mario
Les constructeurs automobiles ne cessent également pas d’innover dans leur domaine. Après avoir révélé un nouveau concept de voiture hybride, BMW développe maintenant un véhicule ultra-noir. La firme allemande devrait notamment présenter la version Vantablack de son modèle X6 au salon automobile de Francfort, qui se déroulera du 14 au 22 septembre prochain. S’il s’agit […]