Shared posts

18 Feb 08:20

Georges Guelfand is a guest speaker at the annual Esomar Congress in Nice on Sept. 9

by Munich
Jean-Philippe Cunniet

Expert études quali, psychologue

Photo Georges_1321_Portrait_MedRes

Georges Guelfand, Winner of the John Downham Award 2013 and Managing Director, Happy Thinking People, France

Qualitative Research and Neuroscience:

The Apologue of the Camel

 

To be able to pinpoint the relationship between qualitative research and neuroscience in accessing and exploring the unconscious thoughts and emotions of consumers, there are a number of fundamental misconceptions that need to be cleared up.

Taking a look at how qual and quant have coexisted and contributed to each other until today, can help to determine neuroscience’s relative role in the research universe – but also prompts a couple of key questions: will neuroscience spell the end for qual – or is it actually a much bigger threat for quant? To what extent can neuroscience really be counted as a qual tool? And what’s the role of “context” in all this?

 

See Georges present at Esomar Annual Congress in Nice on Tuesday, September 9

 

 

18 Feb 06:21

The Startup That Helps You Analyze Twitter Chatter in Real Time

by Davey Alba
The Startup That Helps You Analyze Twitter Chatter in Real Time

Catherine Havasi is the co-founder and CEO of an artificial intelligence startup called Luminoso, which was spun out of the MIT Media Lab. Essentially, Luminoso is an enterprise feedback management company. It uses natural language processing and machine learning technologies to gain insights from consumer feedback and all kinds of communication channels, such as emails, surveys, news sites, blogs, forums, focus groups and, of course, social media.

The post The Startup That Helps You Analyze Twitter Chatter in Real Time appeared first on WIRED.

17 Feb 23:16

L’expérience client : c’est quoi ?

by noreply@blogger.com (Christian barbaray)
Jean-Philippe Cunniet

Etudes, Analyse de l'expérience client

L’expérience client : le nouveau  mot à la mode !  Tout le monde ne parle que d’expérience client.

Ce que j’aime dans l’expérience client, c’est que ça nous dit deux choses importantes :
  • 1. Tout part du client
  • 2. La relation client est un voyage
Tout part du client !
L’expérience client c'est avant tout l’acceptation de la perception subjective de la vision du client comme élément central de la relation sur le long terme.

Vous connaissez tous cet adage :



  • règle N° 1 le client a toujours raison,
  • règle N° 2 si le client a tort, la règle N° 1 s’applique immédiatement !


L’expérience client consiste donc :
  • à considérer que le client aura toujours raison sur le long terme 
  • que l’entreprise doit éviter de créer des frictions tout au long de la durée de vie qu’elle souhaite avoir avec lui.
L’entreprise doit donc être capable d’identifier et de traiter les freins et les irritants qu’elle met en permanence sur la route de ses clients !
Ce n’est sans doute pas une révolution pour les spécialistes du Marketing et
de la relation client, mais c’est une nouveauté pour tous les autres :


  • Les Marketeurs :

    • moins d’obsession sur les produits, focalisez-vous sur les usages !

    • l’experience client c’est de la transaction, de la relation et des émotions

    • le voyage du client commence bien avant l’acte de consommation

    • il se prolonge après….
  • La qualité : moins de process voulu par les normes et pour l’interne, mais ceux réellement utiles pour l’externe
  • Les gestionnaires : le client est un investissement et un actif que vous devez faire fructifier
  • L’organisation :

    • le client a de multiples interactions avec l’entreprise (canaux, services, fonctions)

    • chaque évènement (appel, commande, livraison, etc.) doit être maitrisé pour fluidifier et solidifier la relation sur le long terme
  • Les collaborateurs : la mémoire du client est un cumul d’achats, de relations et d’expériences variées (positives et négatives) dans lesquels vous êtes des acteurs majeurs
  • Le réseau : nous sommes le maillon fort du parcours de nos clients, nous les aidons dans leurs transactions via tous les canaux offerts (physiques ou digital)
  • La communication :

    • la promesse n’est pas de faire venir, mais de faire rester dans la durée

    • nous cumulons du physique et du digital, de réel et de l’émotionnel

    • nous devons raconter une histoire motivante dans la durée

    • notre seul socle de communication sur la durée est la confiance (Crédible + Intègre + Bienveillant)
  • Tous : l’expérience client est une histoire qui s’écrit chaque jour avec le concours de tout le monde
  • La Direction :

    • Fédérer tous les acteurs (du back office au front office – du siège au terrain)

    • Avoir une vision client sur le long terme qui donne du sens à l’entreprise : le client nous met tous et tous les jours à l’épreuve !

    • Définir des process allant dans le sens de l’optimisation de la relation et des transactions.

    • Développer une « culture client », un fluide vital qui irrigue la bonne volonté de tous, les indicateurs clés et les modes de contrôle.
Expérience & et parcours client ?
Penser l’experience client comme un parcours et un voyage initiatique c’est penser à toutes les étapes avec lesquelles l’entreprise est directement ou indirectement en contact :


  • Avant achat (recherche et sélection)
  • Pendant l’achat (contact et transaction)
  • Après l‘achat (SAV et usage produit / service)

Penser "parcours client" c’est identifier tous les moments de vérité durant lesquels il peut y avoir conflit entre les promesses et le produit (ou la prestation) délivré.


Penser "parcours client" c’est penser à la fois parcours initiatique (découverte > maturité) et cycle de vie (évoluer > s’adapter > grandir)

Si l’expérience de vos produits service est décevante, non seulement vos clients ne reviendront pas mais ils noirciront votre image et votre réputation !
Votre expérience client sera unique !
C’est déjà ce que l’on disait du service : si vos produits sont copiables, votre service lui ne le sera pas !


C’est encore plus vrai de l’experience client qui sera réellement unique et qui, sur le moyen terme, deviendra réellement différenciante.

Personne ne sera capable de copier durablement votre Adn et votre expérience client sur le long terme !

Conclusion :

  • L’expérience client est un processus décidé par le Management permettant à l’entreprise de créer de la valeur et de valoriser son capital client sur le long terme.
  • Cette expérience client se construit tous les jours via toutes les interactions physiques ou digitales.
  • Ce processus soit être déployé dans les interactions internes (collaborateurs, services, fonctions, prestataires)
  • Ce processus doit être visible et perçu positivement par les clients.
Christian BARBARAY http://www.init-marketing.fr/

-----------------------------------------------------------------------------------------
17 Feb 23:15

Utiliser les données pour débusquer les insights

by Serge-Henri Saint-Michel

La data permet de trouver des insights performants et de s'appuyer sur du data driven marketing avant et après l'achat. Bouleversement des plans marketing

ArticleUtiliser les données pour débusquer les insights publié surMarketing Professionnel e-magazine.



Tags:  acheteurs, big data, consommateur

Facebook
TweetThis


Copyright © Marketing Professionnel e-magazine [Utiliser les données pour débusquer les insights], tous droits réservés. 2015.
17 Feb 23:14

Les walking desks connectés – Interview de Marc Thouvenin

by Redaction
Marc Thouvenin

Marc Thouvenin

Interview de Marc Thouvenin, fondateur de Activup

Pourrais-tu présenter tes activités dans les objets connectés ?

J’ai aujourd’hui deux activités en parallèle :
- la conception et commercialisation de walking desks connectés, sous la marque ActivUP que j’ai créée il y a quelques mois. Ce sont des bureaux avec un tapis de marche intégré qui permettent de travailler en marchant.
Ces équipements sont connectés en bluetooth à l’ordinateur et au mobile pour tracker la distance parcourue, les pas et les calories dépensées.
- une activité de conseil liée aux objets connectés, avec notamment
comme clients HAPI.COM  (la société qui a créé la HAPIfork et le
HAPItrack). J’accompagne aussi des initiatives plus early stage comme la tirelire connectée de Microdon.

Comment t’es venu l’idée des objets connectés au service d’une noble cause ?

Depuis 2008, j’ai accompagné plusieurs associations caritatives. Je constate que la friction est encore trop forte pour donner, ce qui limite les dons pour des raisons uniquement « techniques ». Je trouve aussi que les modes de collectes sont restés assez conventionnels et n’ont pas encore embrassé les innovations ergonomiques de l’internet ni les nouveaux usages matures comme le mobile et les objets connectés.

Imaginez avoir un bouton connectés que vous mettez sur votre frigo ou sur votre table de salle à manger, et où vous avez juste à appuyer une fois pour donner 5€. A chaque fois que vous en avez l’envie ou que vous êtes touché par une cause qui passe à la TV, vous appuyez.

Aucun effort mais immédiatement un shoot de dopamine (l’hormone de la réussite, de l’accomplissement)
Je travaille actuellement sur un projet de ce type pour offrir des solutions concrètes et efficaces aux associations.
Comme je l’ai dit plus haut, j’accompagne la société Microdon sur sa tirelire connectée, et on voit bien le champ des possibles au niveau
des usages :
- contre-réaction visuelle et sonore quand on donne
- consolidation du montant des dons, par tirelire mais aussi global, le
tout en temps réel
- gamification pour motiver les donateurs ET les bénévoles qui sont sur le terrain

Autre sujet qui me tient à coeur et qui rejoint la mission d’ActivUP
: utiliser la mesure de l’activité physique via des activity trackers connectés pour motiver des donations sous un format de microdon: Par ex, pour la marche ou la course, je fais 1km et je donne 1€, ou alors ce sont mes amis et/ou mon employeur qui donnent pour moi en fonction de la distance parcourue.
Il s’agit toujours de proposer des animations de terrain pour la collecte de fonds mais la nouveauté est ici de :
- s’affranchir de l’unité de lieu et de temps : les participants
pourront marcher ou courir quand et où ils veulent
- se libérer des coûts associés : pas besoin d’organiser des stands,
de convoquer les pompiers, de mobiliser la police, de bloquer la route,
etc

Quelles innovations apportes-tu ?

Sur ActivUP, nous innovons sur quatre plans :
- innovation d’usage : c’est nouveau de pouvoir travailler en marchant
- innovation technique hardware : adapter des équipements de fitness au
bureau, en réduisant le bruit et en augmentant la longévité avec un usage intensif (10 heures par jour) et les automatismes
- innovation technique software : avoir des applications mobiles et web
qui permettent à la fois de tracker la marche, de partager la distance,
le tout en synchronisant les autres objets connectés dont on dispose
(activity trackers connectés, quel que soit leur marque)- innovation dans le business model : nous avons plusieurs clients qui acquièrent l’équipement par une location avec option d’achat, et nous testons actuellement le modèle de cofinancement par les utilisateurs (coût par mois et par utilisateur incluant la location du matériel, l’abonnement aux services associés, le coaching santé/bien-être et la maintenance)

Le marché des objets connectés est-il mature ?

Oui, le marché des objets connectés est mature, surtout depuis 2014, qui a été l’année du décollage du secteur. Il reste encore des créneaux à prendre et on voit des produits connectés sans intérêt
se lancer avec selon moi peu de chances de réussir car ils ne sont pas adaptés à un réel besoin (brosse à dent connectée, ceinture, etc).

En effet, comme à chaque fois qu’un nouveau secteur émerge, il y a des entreprises qui apportent des solutions rendues possibles par les technologies ou la masse critique nouvelle, mais qui ne répondent pas vraiment à un besoin. Donc ils resteront des gadgets dans une niche ou ils arrêteront d’exister.

Je pense que c’est un signe que le marché est mature : il y a un volume important de clients potentiels et il y a un ou plusieurs acteurs importants sur les créneaux les plus porteurs.
Et les retardataires vont sur les créneaux que les pionniers n’avaient pas souhaité occuper

Le mot de la fin pour nos lecteurs ?

Quand j’ai commencé ActivUP, je pensais que travailler en marchant s’adressait uniquement aux gens comme moi, qui veulent marcher plus dans une logique de quantified self, des gens qui se préoccupent de leur santé ou qui veulent perdre du poids.
En fait, ça s’adresse à tout le monde, car « Sitting is the new
smoking » ->

Et en plus ce n’est pas agréable de rester assis toute la journée. Et on n’a plus trop le temps de faire de l’exercice physique à cause de la quantité de travail qu’on a tous.
Donc c’est génial de pouvoir faire les deux en même temps. Et la connectivité permet de se motiver seul ou en groupe pour valoriser le mouvement qu’on fait au bureau.

« Les Walking Desks sont disponibles sur le site ecommerce d’ActivUP  http://www.activup.co/fr

Propos recueillis par Nicolas Goldstein
Cet usage s’adresse donc finalement à tous !

The post Les walking desks connectés – Interview de Marc Thouvenin appeared first on Les Objets Connectés.

17 Feb 23:13

What Can An ID Thief Do With My Social Security Number?

by Chris Morran

When I was working at the library in college, every student had to tell me his/her student ID number to check out a book, and with very few exceptions that number was also the student’s Social Security number. Oh boy, the profitable things I could have done if I’d been enterprisingly evil.

Social Security data is in the news a lot lately after potentially millions of SSNs were stolen in the recent Anthem insurance data breach, and the former governor of Florida released e-mails containing folks personal information, including their Socials.

This story on Credit.com runs down the most significant ways in which an ID thief can ruin your life with just those 9 digits that you will put on countless documents and forms before you even get to the point of claiming Social Security benefits… which an ID thief can steal if they have access to your SSN.

1. Ruin Your Credit

Having someone’s SSN is often the key to successfully applying for credit or loans in that person’s name. Of course, an ID thief is probably not borrowing your identity so that he or she can live a financially responsible existence under a different name. More likely, that thief intends to max out every line of credit or take out loans with no intention of repaying a dime.

And where does all this bad credit end up? On your credit report because it’s all tied to your SSN.

2. Steal Your Tax Refund

There’s a reason Ohio has started requiring that some taxpayers take a “quiz” on personal information before they get their refunds — because every year billions of dollars in tax refunds are being claimed by ID thieves who hijack legitimate taxpayers’ Social Security numbers.

3. Give You A Criminal Record

When I was a kid, a friend of the family was almost arrested because he had several outstanding warrants in his name. Except he didn’t do anything; it was his lookalike brother who never carried photo and used his sibling’s name and SSN every time he got into a jam.

And if one or more ID thieves are out there running up traffic tickets or minor charges all over the place in your name, it can take years to prove to the various law enforcement agencies that you’re not the one they’re looking for.

[via credit.com]

17 Feb 23:09

Evaluating retail customer journeys

by Expert commentator

A tool for evaluating the customer decision journey

Today the consumer is like a bird, flying from branch to branch, collecting evidence each time they [sic] land[s]. Or maybe like 'a hawk surveying the scene and then swooping when the time (and price) is right.' (Dave Chaffey’s comment at the bottom of Danyl Bosomworth’s post)

There is no doubt that the consumer decision journey is still evolving as people adapt to ever changing technologies, and the corresponding online information sources for decision-making that are available... 'The average number of information sources used by shoppers doubled from 2010 to 2011', Professor David Bell.

This new approach to a decision journey attempts to highlight the complex and non-linear paths that people can take when discovering and purchasing products or services.

It's not a linear process any longer, so important to note when interpreting the journey, that a person can start at any touchpoint for 'your business', and move on to any subsequent touchpoint. A friend may tell you about a product (word of mouth), moving you from awareness to consideration to evaluation in the space of a conversation. However, you may then determine that you do not need the product at that particular time, and go back into the awareness orbit until you’re ready to reconsider.

A brief explanation on the rings:

  • Digital and traditional channels: These channels are the predominant forces in the awareness space, and is where consumers are first introduced to brands and their respective products and services.
  • Social channels: These sit on the fence between awareness and consideration as they can both generate awareness through paid initiatives (e.g. sponsored posts), and spark consideration if you see that your friend has liked it. The arrows indicate movement in all directions. You could see an ad or post on LinkedIn and then go to Facebook to see if your friends like it, and so on.
  • Evaluating: Here we validate and rationalise. Again, movement is possible in every direction. We could search for competitors, check with some friends or consult with our networks – and in any order. Word of mouth is meant in the traditional sense, such as asking a friend or hearing about a brand from colleagues at the water-cooler. I would argue that word of mouth via social channels sits more naturally under consideration than under evaluation. For one, I would attribute more weighting to a recommendation from a friend telling me in person than a retweet or 'share', which they may have simply done to get a free coffee at Starbucks. And we all know that bloggers get free stuff.
  • Your business: In line with Procter & Gamble's original thinking back in 2004, research from McKinsey (2009) shows that the in-store experience is still crucially important – up to 40% of consumers abandon their purchase intent as a result of something they've seen, learnt or done in the store.

Packaging, product dimensions, signage, interactions with sales people and the shelf position can all impact those critical last few steps of the journey. Similarly, with e-commerce poor UX or a non-responsive web design can lead to shopping cart abandonment and high bounce rates.

customer decision journey

As mentioned above, multiple paths are possible. Consumers can of course go straight from seeing an ad on TV to purchase. They could also see the ad, then check YouTube, read some reviews and then go back to Facebook to find out more. The potential paths are countless. A prospect may be all the way in the evaluation phase, may have seen ads, may have consulted friends, read countless reviews but then decides that they will book that holiday next year when they've saved up.

An acronym to be aware of is ROPO which stands for research online, purchase offline. According to a recent global study by DigitasLBi 88% of consumers research online before purchasing in-store. This trend needs to be anticipated and accounted for.

As a quote from Vincent Druguet in the study explains aptly 'Shoppers worldwide now regularly use digital devices before shopping in store. They need triggers to get them into the physical retail environment where mobile and social media are game changers. Retailers need to adapt to offer consumers in-store experiences as exciting, as useful and as personal as the online shopping experience, combining all of the purchase touch points to build a relevant consumer journey for people to get whatever they want from wherever they are.'

ROPO is also referred to as reverse-showrooming or webrooming, and a recent report by BI Intelligence shows that this may be more popular than showrooming. Under the showrooming approach consumers look at a product in-store and then search the internet for the best deal.

Both showrooming and reverse-showrooming fall under ‘search’ in the evaluation phase, and understanding how these approaches are prevalent in your customers’ journey can help you accommodate for them.

An example of a possible strategic response to showrooming was employed by the British DIY retailer B&Q who developed an app that offers customers in-store deals. Customers can scan items on a shelf and get immediate bespoke offers based on their loyalty card status. Although this tactic can perhaps curtail showrooming I do not profess to know that it was the key objective of the scheme.

Of course the journey continues post-purchase – people can ‘share’ their purchase on social networks, write a blog or go to Facebook and Twitter to complain. It's two-way communication and the possible paths are numerous. For the people whom don’t ‘share’, their purchase companies could see this as an opportunity to follow up with support or a survey, to understand if there is part of the purchase experience that can be improved.

The most prolific models to date are the purchasing funnel, McKinsey’s Consumer Decision Journey and Google’s Zero Moment of Truth (ZMOT). All three are excellent models, striving to explain how consumers make purchasing decisions.

And although the methods and touchpoints are becoming more sophisticated, the initial stages of the good old original purchase funnel – awareness, consideration and purchase – are still inherently the same.

My chief concerns with the funnel, McKinsey’s model and ZMOT is that they are linear, sequential or too simplified. I love simplicity, so nothing wrong with that, and I am still a fan of the aforementioned models. They succinctly describe the process of making a decision, but are not adequate in illustrating the multi-touchpoint pathsthat consumers take (a summary on some of the models can be read on the site marketing-made-simple)

Key takeways for ZMOT

For the key takeaways to learn from ZMOT I recommend Danyl’s post. A short synopsis is definitely worth listing out here:

  • Each consumer is unique.
  • Consider how you can earn attention at every step of the customer’s journey and especially when they’re on your site.
  • Remember consumers are multi-channel and multi-device users.
  • Showing up / being present at each touchpoint.
  • 'There’s evidence that customers acquired by word of mouth actually have higher lifetime value than others.' Jim Lecinski.

For Brian Solis’s take and contribution to ZMOT, his article on The Ultimate Moment of Truth and The Art of Digital Engagement is also a good read.

Seychelle Media also take a more digital look at attracting prospects all the way through to conversion. It provides a short overview on digital tactics that can be employed to drive engagement, conversion and inspiration.

Whichever model you utilise to determine your strategy, remember to establish the overall business objectives first, then listen and learn from your customers and ask the questions:

  • Which touchpoints work best for them?
  • On which channels are they found?
  • What content do they engage with?
  • What do they want?
  • Are your customers searching for you (need), or discovering you (want)? Also consider your competitors.

The power of digital touchpoints is that you can experiment and optimise continuously to improve and perfect each interaction. Ultimately providing the right message in the right place at the right time.

Every sale turns a customer into either a buyer or an influencer. If you aim and work on the latter you can win life-long customers and gain invaluable word of mouth marketing. McKinsey calls what I call influencers ‘loyalists’, and splits these into two further groups. 'The passive loyalists' and 'the active loyalists;. The key outtake from this insight is that passive loyalists tend to be open to messages from competitors, and that identifying and accommodating for them can attempt to counter this.

There is not a unique consumer journey, there are millions of possible journeys. As always thoughts, critique and general feedback most welcome.

Thanks to Eliot Mannoia for sharing his advice and opinions in this post. Eliot currently provides strategic advice around mainstream and digital media to premium clients at Gorkana, part of the Cision Group. As Account Director and Senior Consultant, he brings over thirteen years of experience in marketing, digital and social media across the environment, technology and media sectors. Past clients include United Biscuits, Microsoft, Asics, Skype, Red Bull, Unilever and Starwood. From January 2015 Eliot will be joining IPG Mediabrands as Social Strategist. You can connect with Eliot on LinkedIn.

17 Feb 23:08

A Pixar-Inspired Projector That Beams VR Into an Entire Room

by Joseph Flaherty
A Pixar-Inspired Projector That Beams VR Into an Entire Room

For those who don't want to look like a spaz wearing high-tech ski googles.

The post A Pixar-Inspired Projector That Beams VR Into an Entire Room appeared first on WIRED.

17 Feb 23:06

This Wireless Explosives Detector Is the Size of a Postage Stamp

by Jordan Golson
This Wireless Explosives Detector Is the Size of a Postage Stamp

For public safety agencies, sniffing out explosives and other contraband is a tricky task. Handheld explosive detectors can be as small as a purse, but still must be manually operated. Permanently mounted sensors need to be even bigger. Dogs are useful in some scenarios, but they're expensive to deploy en masse and must always have a handler.

The post This Wireless Explosives Detector Is the Size of a Postage Stamp appeared first on WIRED.

17 Feb 22:53

Les nouvelles technologies renouvellent les études qualitatives

Objets connectés et caméra embarquée dépoussièrent les études.
17 Feb 22:49

Le dépistage du VIH via smartphone est un enjeu pour l'Afrique

Un boîtier connecté à un smartphone qui permet efficacement de dépister le VIH et la syphilis. C'est ce que des scientifiques de l'université Columbia à New York ont présenté hier, suite au test du dispositif auprès de 96 patients d'un centre de santé rwandais. Leurs conclusions publiées dans la revue Science Translational Medecine (http://stm.sciencemag.org/content/7/273/273re1#corresp-1) font état d'une efficacité presque équivalente à celle d'un traitement en laboratoire. L'opportunité pour des populations coupées d'infrastructures médicales de pouvoir prendre en main leur santé. Le boitier smartphone inventé par des scientifiques de la Columbia University (Capture d'écran du site de Columbia Engineering / Crédits photo: Samiksha Nayak (http://engineering.columbia.edu/) )
17 Feb 22:44

Picking the Right Research Software: Your Checklist

by Howard Chou

Technology is a key ingredient when it comes to finding the most innovative way to conduct research.  A craftsman can only go as far as the tools that he or she has available, right? That said, there is no shortage of tools to choose from. Selecting which one is right for you can be challenging; decisions don’t always just boil down to considering cost and cool features. There are many factors to weigh, from respondent experience to data output and everything in between. I’ve highlighted a few major areas that are crucial to examine when selecting the software tool that is right for your current needs and future objectives.

Capabilities: The capability of tools varies greatly, and there are a few factors to consider when choosing one that meets your needs:

  • Dynamic capabilities: If you plan on having dynamic questions, such as mimicking a shopping cart experience or determining areas of interest via heat map, then you’ll need a robust system capable of flexible customizations. On the flipside, if most of your research consists of satisfaction surveys on recent hotel stays, you won’t need an overly complicated tool.
  • Media streaming: Do you need to include videos and other media into your studies? If so, does the system allow you to upload and play it securely or do you need to implement a media host service?
  • Bandwidth: Approximately how many respondents do you expect to have coming through your system at a given time? If you need to test 5 video ads with 3,000 respondents in only a week of field time, you must consider the bandwidth capabilities and how they affect pricing.
  • Integration with outside software: Do you have the capability to integrate with other software or incorporate computer language for custom research studies? Does your research need that capability and, if so, to what extent?

 

User Expertise: Consider the technical expertise of the individual that will be using the software – how does their skill set align with the complexity of the tools that you’re considering? While a majority of software companies are leaning more towards user friendly GUIs (Graphic User Interface) designs, many require advanced knowledge in survey logic and functions.

  • Human resources: Will you need to hire a programmer or add more depth in that department to efficiently utilize this system? Or can you train your current staff to use it effectively?
  • Comfort with code: Some survey tools can be used fairly easily with their GUI (see above) while advanced survey tools will require a programmer to create custom codes or scripts to implement.
  • Common language: Consider the computer language that the system uses – is this one that is frequently used (like JavaScript) which will make support and resources easier to find or does it use a less common language (like PERL)?
  • Technical support: Most systems have a ticketed email support, but the timing of the responses can vary from a couple of hours to 48 hours. If you do time sensitive research, you most likely need a fast response time in case something fails during that set up.

 

Data output: It’s essential to work backwards when considering a tool. Perhaps the most important question that you’ll ask yourself is what do you need from the output? What kind of data do you need to deliver or present? There are many tools that offer real time data tracking and topline reporting and you will need to weigh which one fits your research needs the best.

  • Recording capabilities: Do you need to track the order of events in a survey, such as the order of concepts shown in a randomized presentation of concepts? Or do you need to know what menu item was selected first in an ordering simulation?
  • Reporting options: Some survey tools offer an abundance of robust reporting capabilities including charts and graphs that are easy to deliver and present. Alternately, there are more cost efficient solutions in which you can manually build the necessary charts and graphs.
  • Dashboard: Does this software offer a dashboard or reporting link for clients to access the data fairly easily? How customizable are these dashboards/links?
  • Extra software: Will you need extra software (such as SPSS) to deliver the data set? Some clients will require an edited file for their deliverable.

 

Future: Thinking about your long term goals, how advanced do you see your needs becoming? You may want to ask yourself the following questions in order to license a tool that not only fits with your current needs, but also aligns with your future goals.

  • Do you foresee your programmers outgrowing the capabilities of the software? If they’re constantly creating custom code to meet the demand of new, but commonly requested, functionalities, the answer might be yes.
  • Do your goals require you to have cutting-edge technology, or are more rudimentary tools fitting with your needs? You may consider the software company’s long term plans and how it intends to improve its capabilities.  Many survey tools have constant upgrades and new releases to stay up to date with new technology trends.
  • Will this survey tool keep up with the ever changing mobile and tablet technology? Is mobile research important to your business?
  • Will your number of completed interviews be within your price point? Some companies have minimum contracts so make sure these are thought out ahead of time.

 

There is no one-size-fits-all solution to choosing a software tool for research. Keeping in mind the global picture beyond just the technical aspects is vital to achieve the best results for your research. Feel free to comment below with any questions!

The post Picking the Right Research Software: Your Checklist appeared first on iModerate.

17 Feb 22:34

FocusVision, Decipher, and Luck

by Tom H C Anderson
In Advertising, Top-of-Mind Awareness is KING. It doesn’t really matter how you get there. The old adage any PR is good PR is a truism that most PR professionals unfortunately have forgotten.
17 Feb 22:32

Can Emotions Improve Predictions?

by rsambandam@trchome.com (Rajan Sambandam)
Jean-Philippe Cunniet

Etudes, Emotions

Recently I had lunch with my colleague Michel Pham at Columbia Business School. Michel is a leading authority on the role of affect (emotions, feeling and moods) in decision making. He was telling me about a very interesting phenomenon called the Emotional Oracle Effect – where he and his colleagues had examined whether emotions can help make better predictions. I was intrigued. We tend to think of prediction as a very rational process – collect all relevant information, use some logical model for combining the information, then make the prediction. But Michel and his colleagues were drawing on a different stream of research that showed the importance of feelings. So the question was, can people make better predictions if they trust their feelings more?

To answer this question they ran a series of experiments. As we researchers know, experiments are the best way to establish a causal linkage between two phenomena. To ensure that their findings were solid, they ran eight separate studies in a wide variety of domains. This included predicting a Presidential nomination, movie box-office success, winner of American Idol, the stock market, college football and even the weather. While in most cases they employed a standard approach to manipulate people’s feelings of trust in themselves, in a couple of cases they looked at differences between people who trusted their feelings more (and less).

Across these various scenarios the results were unambiguous. When people trusted their feelings more, they made more accurate predictions. For example, box office showing of three movies (48% Vs 24%), American Idol winner (41% Vs 24%), NCAA BCS Championship (57% Vs 47%) and Democratic nomination (72% Vs 64%), weather (47% Vs 28%) were some of the cases where people who trusted their feelings predicted better than those who did not. This, of course, raises the question of why? What is it about feelings and emotion that allows a person to predict better?

The most plausible explanation they propose (tested in a couple of studies) is what they call the privileged-window hypothesis. This grows off the theoretical argument that “rather than being subjective and incomplete sources of information, feelings instead summarize large amounts of information that we acquire, consciously and unconsciously about the world around us.” In other words, we absorb a huge quantity of information but don’t really know what we know. Thinking rationally about what we know and summarizing it seems less accurate than using our feelings to express that tacit knowledge. So, when someone says that they did something because “it just felt right”, it may not be so much a subjective decision as an encapsulation of acquired knowledge. The affective/emotional system may be better at channeling the information and making the right decision than the cognitive/thinking system.

So, how does this relate to market research? When trying to understand consumer behavior through surveys, we usually try to get respondents to use their cognitive/thinking system. We explicitly ask them to think about questions, consider options and so on, before providing an apparently logical answer. This research would indicate that there is a different way to go. If we can find a way to get consumers to tap into their affective/emotional system we might better understand how they arrived at decisions.

Of course, this will not be easy as both researchers and respondents are conditioned to use the cognitive/thinking system. But if we can move our focus from the instrument (i.e., questionnaire) to the respondent’s mental/emotional state, we may be able to devise ways to get them to respond appropriately.

This may also have another benefit. As researchers, we know there is a gap between answering questions in a survey and making choices in the market place. We often attribute this to respondent (lack of) engagement. Perhaps it is also because real decisions are more influenced by emotions, while survey answers are not. By incorporating respondent emotions into their responses we may get a clearer picture of consumer decision-making.                   


Read More
17 Feb 22:29

Does Gamification work?

by noreply@blogger.com (Jonpuleston)
Jean-Philippe Cunniet

Gamification


This is s ICG webinar recording where I look at the basic question...does gamification work?
17 Feb 22:29

The Power of imagery in surveys

by noreply@blogger.com (Jonpuleston)

Over the last few years we have conducted a number of experiments exploring the role and use of imagery in online surveys, mostly as part of more wider research looking at how to effectively engage respondents in research. A lot of it is hidden away across several papers and reports and so I thought I would try and consolidate this learning into one blog post. This is my guide to the use of imagery in online surveys.


Now Imagery can have a very powerful role to play in online research, in the same way as they used in just about any other form of creative communication, as a means to more effectively communicate ideas, entertain, to engage, to trigger thinking patterns but they can also be quite disruptive when used in the wrong way.  There are some define do's and don't to think about when using imagery.

I have heard a lot of people say they are concerned about using images in surveys because they can bias the answers people give.  In some quarters there are even people actively campaigning against the use of images in survey.  My viewpoint is this...YES it is true images can steer answers, in exactly the same way the words you choose can steer answers too and for that reason you have to use them very wisely, but don't use this as an excuse not to use them at all!  It is important that you understand how they can influence answers and the reasons why. Armed with this information you can then set out to use imagery in surveys with more confidence and I hope this blog post will help.

I will start with the do's...

1. Using imagery to trigger the memory

Some of the early experiments we conducted were to investigate the role that imagery could have to stimulate the memory.  We conducted a series of experiments where we asked people to recall things in a survey, principally brands and advertising and for some test groups we prompted them with some various visuals and measured the impact.  Not directly to prompt them but to get them thinking.

This example below is from one of the experiments that we published in an ARF paper.  We found that by visually stimulating respondents with these images of different advertising media prior to asking them to recall some recent advertising it encouraged them to list 60% more ads.


This was not an atypical figure, when used creatively we found images could sometimes double the number of items respondents recalled. The more startling and show stopping the images you use the better.

If you compare the average brand awareness when you prompt with a picture of the brand compared to just name of the brand there are often enormous differences.

Take the example below taken from an experiment we conducted to explore this issue where we measured awareness and purchase consideration of a range of yogurt brands, half the sample were shown just the brand name the other half an image of the product.    Average brand awareness increased by 20% and purchase consideration by 40%.  This is perhaps not surprising if you think about how we process shopping brands almost entirely visually, we rarely hear the brand name used in isolation unless they advertise on TV or we actually purchase the brand and talk about it.  So brands like "Frijj" which 70% of the population are aware of when you show the packaging only 40% can recall by name only.  You could argue that without imagery measuring brand awareness of supermarket brands like this almost meaningless.




2. Using imagery to stimulate the imagination and triggering emotional responses

When we asked a group of mums to talk about their experience of using baby wipes and we showed them this picture below of a baby a long with a bit of emotional rhetoric we went from 18 words per respondent to over 35.



Likewise imagery can really help stimulate our imagination, and again the more resonant the imagery used the more powerful the impact it can have.

Here is an example of another classic experiment we did we did where we asked people to recall foods they dislike eating and we show them this image of a woman expressing disgust.  This prompted respondents to list 90% more food items that the simple text only variant of the question stimulated.


3. Using imagery to help communicate ideas more effectively...


Have you ever had to start a survey with a big block of text explaining what respondents have to do like the example below...


The problem is very few people actually read it properly.  Breaking this text up with imagery to help communicate each point can really have a major impact on helping respondent reading and absorbing the message.  Like the example below (this is taken from the work we did with John Pawle at QRi (then QIQ) to develop their pioneering Lovemark surveys)

 
 
When examining the time invested answering a controlled set of follow on question including some open ended question we found respondents who we visualized the introduction to the survey in this way investing 40% more time and gave us 20% more feedback.

This type of approach to using imagery at the start of a survey we have explored in quite some detail in research for an ESOMAR paper I published with Deborah Sleep at Engage research called "Measuring the value of respondent engagement" and found introductions like these also had a major influence on improving overall survey completion rates.  The majority of dropout from surveys occurs in the first 5 frames and these visual intro's proved to reduce dropout, on occasions, by more than half .

4. Using imagery and iconography to help interpret and digest option choices more effectively


Strings of words at a glance are very difficult to digest and when you are asking people to evaluate a series of strings of words like we do with say grid question things it is often difficult to differentiate between individual options.  What that means is respondent have to hold in their working memory what each option choice means which is hard work.



Take this example above, at a glance in the text version all these options fade into one you have to carefully read each one to clearly understand them and imagine you are asked this question repetitively about 10 or 20 books its difficult having to read and clarify these options repeatedly. But with icons once you have read the first couple they are almost instantly decodable making it so much simpler to answer this type of question repetitively, you can view the icons in your peripheral vision meaning you don't need to store anything in your working memory.   As a result questions using visuals like this are easier to answer and deliver back better data.

5. Using imagery to generate more cross consistent data

We have also discovered that using imagery and iconography in range sets can deliver back more cross consistent answers, particularly when conducting international research where words can be interpreted differently in different languages have different meanings in different cultures.  With some exceptions, images tend to be more consistently interpreted than words.

Take the example below where we compared across several markets the balance of answer to a question using a standard like range v a facial range.  Whilst the pattern of answers overall was identical, there was a 25% reduction in intra-country data variance. If you are interested in reading more about this I would point you towards the ESOMAR Asia 2012 paper that I wrote with Duncan Rintoul from the University of Wollongong called "Can gaming technique cross cultures" that discusses this in more detail.


6. Using imagery to make questions more fun and engaging to answer

In this same paper we explore the value of making selection processes more fun and engaging and we found consistently in every market we tested that, more fun meant better engaged respondents who focused more on their answers. If anyone has seen me present they will recognise this example below which I cite in nearly every presentation I do on this topic. We added to the end of a standard set of sliders a character who would move from being asleep to standing up applauding as a visual proxy for how much people enjoyed watching. This improved enjoyment scores, consideration time, increase the standard deviation in the answers by 20% (an indication of data quality) and reduced intra country variance by 23%.



7. Using imagery to help maintain peoples attention in a survey

One of the challenges we face in survey design is maintaining peoples attention levels as they proceed through a survey. In experiments we have conducted where we have placed the same multi-choice question at different points in the survey we have found the number of choices on a list respondents can be bothered to tick can fall off  by in cases up to 50%. We have found that images can have an important role at helping to maintain respondents attention level as they start to get bored answering questions.

This example below is a very good example of the impact that images can have at maintaining respondent attention.  In this specific experiment we asked 600 respondents on a multi-choice tick list to mark the times they recalled drinking water on the previous day and using split cells of respondents we rotated the position of the question so 1/3 answered the question either at the start, middle or end. Half the sample were asked the question using text only the other half using an image.




For the text only group at the start of the survey an average of 3.1 water drinking instances were recorded by the  middle it fell to 2.4 and at the end it had dropped to 2.1, when we added the simple image of a water tap to the question we found there to be significantly lower levels of answer decay moving from 3.2 to 3 to 2.6. The imagery did something to help motivate respondents who were flagging to put a bit more effort into answering the question later in in the survey.


8. Using images to improve the all round appeal of the survey take experience

Well designed image based surveys are perceived to be shorter, more enjoyable, less repetitive and have higher completion rates, time and time again in experiments we have been able to demonstrate this.

The decorative power of imagery can have an all round effect at making people feel more comfortable and interested in the survey experience.  I can show examples of surveys with 50% improvements in completion rates simply as a result of their visual appeal.

Now the Don'ts...

These are some important caveats to the use of imagery in surveys becuase its not all plane sailing!
Here are the key issues:


1. Be weary of the literal interpretation of images

Warning respondents tend to be fiercely literate in the way they interpret images.

Earlier in this post I illustrated an example of the differences in brand awareness when showing pictures compared to brand names and in most cases brand awareness increase, but with the exception of the 2 most familiar brands, where their awareness scores fell back slightly.  In both cases it is because of the choice of imagery which gets more literally interpreted.




We conducted another experiment to explore the impact of the literal interpretation of imagery where we asked respondents to evaluate a range of musical artist and varied the picture we showed to see how it effected the artist rating.  We did some preliminary research where we ask people to rate a range of different pictures of artist from which we picked the most popular and least popular image for each one.  We then asked a separate group of respondents to say how much they liked each music artist, splitting the sample, showing half the highest rated picture and half the lowest rated picture. The choice of imagery had a dominating impact on respondents ratings, measuring an average 20% variance in scores.




Our solution in this case was to work with a basket of imagery see below example.


The literal interpretation of imagery become even more problematic when you are asking people to make emotional associations.  We have found that the choice of imagery can have such an all dominating impact that this is the one area where we feel using imagery should be avoided, unless the pictures you are using have been very carefully selected and calibrated.   In this experiment below we looked at the variation in choices of emotion people associated with doing different things when using imagery of men v women expressing each emotion.  We witnessed upwards of 100% swings in selection rate as we swapped out imagery.


2. Anchoring effects of visuals in rating scales

Visuals can also have a very strong anchoring effect when used in range scales and here is an example...

 Below are the results from an experiment we conducted to look at the differences in answers between facial and numeric rating scales.  In this experiment we asked people to say how much they enjoyed doing a range of domestic activities ranging from watching TV, cooking through to doing the washing up and cleaning.  When we used a numeric rating scale the answers were nicely evenly distributed, but the responses to the facial scale we found a disproportionate number of respondents choosing face no 5.    The reason being that the emotional range used here was too strong to measure domestic activities, if you look at these faces, nobody is that ecstatically happy about watching TV or that angry about having to do the washing up and so in effect it narrowed down the choice range. This is because respondents again interpreted the images literally. 




We then conducted a follow up experiment where we used this womans face instead which expressed a more neutral range of emotions and found it broaded out the distribution of answers.






Here is a lesson though when considering using any form of iconography, be it smiley faces, thumbs up thumbs down or what ever - you must be aware that they can narrow down the distribution of answers.   The benefit of using simple number ranges is that we can assign our own meaning on what the numbers means  e.g. in this scale 1= washing up 7 = watching TV.  

Now I would want to underline that it might be easy to use this as one of the excuse to avoid using more emotive ranges in surveys, what you have to remember though is that numeric rating process because they are less emotional are more boring to answer and as a result encourage far higher levels of straightling and ill thought out answers when over used in a survey which is just as much of a problem.  So it is always a compromise.  So my advice for this is not do or don't but maybee!  Choose to them carefully and make sure they adequately reflect the range choices you are trying to measure.

So for example if you are asking people to rate how much they like fruit - well we all basically like most types of fruits its just a question of how much so using a thumbs up thumbs down rating you will loose all the nuance as respondents will only use the top half of the scales.  If however you are asking people what they think of a range of political opinions, well in that case the thumbs up and thumbs down may be quite sensible range choice to use.

3. Poor quality logos and even logo size differences can alter perceptions scores

We also have investigated perceptions of brands based  upon the style and quality of the logo used and found small but never the less significant differences in rating scores in a variety of different dimensions based upon the choice of logos.

In one such experiments testing 20 brands, we saw shifts of average of 10% for brand “liking” score and 7% for “trust” score based on style of logo used (and individual cases recorded up to 20% shifts). Poorly rendered logos see an average 18% reduction in liking perception and 13% in trust. Size of logos presented seems to have a small but significant influence too. Presenting logo’s larger reduced Like and trust scores by an average 4%.

4. Choosing the right images

The selection of imagery for a survey IS A  CREATIVE SKILL raiding the clip art library of powerpoint or spending 5 minutes on google images is not good enough.  Think about how images are uses in advertising and that is the standard you need to think about.

The whole point of an image is to help respondents emotionally engage with a task and simply and effectively communicate a message.

So this type of approach is not good enough (REG!)...




Summary of advice


The selection and use of imagery in surveys is both a science and and artform.  They can have a critical role in engaging respondents and improving the quality of feedback but used thoughtlessly they can be highly disruptive.

Some researchers reaction to this is simply to avoid using them in surveys which might be reasonable enough response if you don't have confidence in how you are going to use them.  But I personally think this is chickening out!

Think of imagery as a weapon you can use to bring survey questions to life....










17 Feb 21:03

Baby steps into the wearable era of research: ESOMAR DD 2014 Roundup

by noreply@blogger.com (Jonpuleston)
Compared to other global research events the ESOMAR Digital Dimensions conference is by no means the biggest, it faces competition, without doubt, from more ‘ideas’ driven events, but never the less it is by far and away still my favourite market research event on the global calendar. Now I have to say that because I was chairman this year, but I do feel that despite all the competition, it has reliably proved to be one of the most fruitful sources of new thinking and new trends for the market research industry - I consistently learn so much more at this event compared to the others I attend and this year it was particularly fruitful.

I think that part of its success is down to the consistently high standards ESOMAR sets on paper submission, only 1 in 5 papers get selected and it also demands a lot more robust thinking from its participants. What you get as a result from this conference is a really thoughtful mixture of new ideas, philosophy and argued out science.

This year was one of the strongest collections of papers ever assembled, so much so that the selection committee asked to extend the prizes beyond 1st place. There were 6 major themes that emerged and 1 paper that I think could go on to have a major impact well beyond the boundaries of market research and I returned home with 23 new buzzwords and phrases to add to my growing collection (see other post).

The big themes

1. The Physiological data age: At this conference we witness some of the baby steps being taken into the world of wearable technology; and a prostration by Gawain Morrison from SENSUM who were one of the stars of the event, that we are about to enter the physiological data age.  They showed us a galvanic skin response recording of a 7 hour train journey which revealed the insight that the highest stress point on the journey was not caused by any delays or anxiety to reach the station but when the on-board internet service went down!  IPSOS are one of many MR companies to start experimenting with google glasses and showed us how they were using them to conduct some ethnographic research amongst new parents for Kimberly Clarke. We saw some wonderful footage of  a father interacting with his new born child in such a natural and intimate way it does not take much of a leap of the imagination to realise wearable technology is going to be a big topic in future MR events.

2. The Big Privacy issues looming over these new techniques:   With the rise of wearable devices raises a whole range of new issues surrounding data privacy that was widely discussed at this conference,  Alex Johnson highlighted in his award winning work Exploring the Practical Use of Wearable Video Devices, which won best paper, - the central emerging dilemma - it’s almost impossible to avoid gathering accidental data from people and companies who have not given their consent to take part in the research when doing wearable research. It’s critical for the research industry to take stock of.

3. Developing the new skills needed to process massive quantities of data:  The second big focus of this conference, that Alex Johnson’s paper also highlighted, was the enormity of the data evaluation tasks researchers face in the future, for example processing hundreds of hours of video and meta data generated from wearable devices.  Image processing software is a long way from being able to efficiently process high volumes of content right now. He had some good ideas, to process this type of data. He proposed a whole new methodological approach which centres around building taxonomies and short cuts for what a computer should look for and a more iterative analytical approach.  In one of the most impressive papers at the conference TNS & Absolute Data provided an analytical guide to how they deconstructed 20 million hours of mobile phone data to build a detailed story about our mobile phone usage, that could be utilised as a media planning platform for the phone – the research battle ground of the future is surely going to be fought on who has the best data processing skills.

4. De-siloed research techniques: I wish I could think of a better simple phrase to describe this idea as it was probably the strongest message coming out of the ESOMAR DD conference - the emergence of a next generation class of more de-siloed research methodologies, that combined a much richer range of less conventional techniques and a more intelligent use of research participants. Hall & Partners described a new multi-channel research approach that involved a more longitudinal relationship with a carefully selected small sample of participants where across 4 stages of activity they engaged them in a mix of mobile diary, forum discussion and conventional online research - challenging them to not just answer questions but help solve real marketing problems; Millward brown described a collaboration with Facebook where they mixed qual and mobile intercept research and task based exercises to understand more about how mobiles are used as part of the shopping experience;  Mesh Planning described how they integrated live research data with fluid data analysis to help a media agency dynamically adjust their advertising activity; IPSOS showed us some amazing work for Kimberly-Clarke that spanned the use of Facebook to do preliminary qual, social media analysis, traditional home based ethography, and a new technique of glassnoraphy. What all these research companies demonstrated was that decoupled from the constraints of convention, given a good open brief from a client and access to not just the research data that the research company can generate but the data the client has themselves we saw some research companies doing some amazing things!

5. Mining more insights from open ended feedback:  Text analytics in infancy focussed on basic understanding of sentiment but 3 great papers at the event showed how much more sophisticated we are becoming at deciphering open ended feedback.  Examining search queries seems to be a big underutilised area for market researcher right now and KOS Research and Clustaar elegantly outline how you could gather really deep understanding of people’s buying motivations by statistically analysing the search queries around a topic.  Annie Pettit from Peanut Labs, looking at the same issue from the other end of the telescope, showed how the suggestions to improve brands and new product development opportunities could be extracted from social media chatter by the careful deconstruction of the language they used to express these ideas.  And Alex Wheatley, in my team at GMI, who I am proud to say won a silver prize for his paper, highlighted just how powerful open ended feedback from traditional market research surveys could be when subjected to quant scale statistical analysis, rivalling and often surpassing the quality of feedback from banks of closed questions.

6. Better understanding the role of mobile phones & tablets in our lives: We learnt  a whole lot more about the role of mobile phones and tablets in our lives at the conference, some of it quite scary.  We had expansive looks at this topic from Google, Yahoo and Facebook.  AOL provided some useful “Shapely value” analysis to highlight the value of different devices for different tasks and activities, it demonstrated how the tablet is emerging as such an important “evening device” , its role in the kitchen and bedroom and how the combination of these devices opens up our access to brands.  We learn how significant the smart phone is when we go retail shopping for a combination of social and investigative research reasons. We learn about the emergence of the “Google shop assistant” many people preferring to use google in shops to search for their shopping queries than actually ask the shop assistants and how we use the phone to seek shopping advice from our friends and how many of us post our trophy purchases on social media.

The impact of technology on our memory

The paper that had the single most impact at the conference was some research by Nick Drew from Yahoo! and Olga Churkina from Fresh Intelligence Research showing how our use of smart phone devices is really impacting on our short term memory – we are subcontracting so many reminder tasks to the technology we carry around with us that we are not using our memory so actively and this was demonstrated by a range of simple short term memory test correlated with mobile phone usage found the heavier smart phone users performing less well. The smart phone is becoming part of our brain!  This obviously has much bigger implications outside of the world of market research and so I am sure we are going to hear a lot more about this topic in the future.

Scary thought, which made the great end session by Alex Debnovsky from BBDO about going on a digital detox all the more salient.  I am going to be taking one soon!

17 Feb 18:41

Ma maison en open source

by William
Jean-Philippe Cunniet

Pour Cédric

Un habitat composé d’équipements 100% open source est-il possible? Chaises, lampes, tapis, mixers … OpenLifeLab lance le défi : constituer un prototype de cet habitat entièrement ouvert. Ce prototype sera mobilisable, en entier ou en partie, et il pourra se transformer en laboratoire d’usage ou en dispositif de médiation. Au service des curieux, au service des projets open design et open hardwares, au service de l’open source des objets!

Designer UI et enseignant, Asselin est l’initiateur du projet OpenLifeLab. Travaillant avec conviction au développement de ce projet, il espère dans un avenir proche motiver d’autres open’nautes et obtenir les premiers objets. Pour cela, il court entre Mutinerie et l’Usine.io à la poursuite des conseils, des échanges, et bien entendu des machines! En effet, la fabrication a commencé: on peut désormais toucher OpenLifeLab !

OpenLifeLab

1-Quels sont les avantages des objets open source par rapport à ce que l’on peut trouver sur le marché aujourd’hui ?

Le fait de s’appuyer par nature sur une architecture modulaire, et donc d’être réparable par conception; ou encore le fait de présenter un maximum de dimensions adaptables à chaque contrainte d’usage (design paramétrique). Mais la plupart de ces caractéristiques peuvent être articulées au moins partiellement dans un contexte propriétaire, limité.

Certains bénéfices sont en revanche très intimement liés à l’ouverture du format. Il est délicat par exemple de privatiser un projet pour lequel on a préalablement engagé à la tâche une communauté d’utilisateurs gratuits et enthousiastes. La dimension coopérative est intrinsèque à l’open source hardware (OSHW).

Un brevet ou un plan n’a de valeur que dans la rareté de sa circulation. L’information open source est au contraire liquide. Il n’y a pas besoin d’une autorisation exclusive pour réemployer ou forker un plan fonctionnel open source. Ce caractère est plus fondamental encore que la gratuité, car il permet la mobilisation d’un grand nombre de partis prenants, et la sélection naturelle exercées par les contributeurs et futurs utilisateurs. Les cycles d’apprentissages sont alors très précoces. Dans l’industrie conventionnelle, il faut parfois des années de travail entravé par un secret angoissant pour découvrir ce qu’une communauté met peu de temps à apprendre dans l’open source.

2- As-tu des exemples de produits open source d’ores et déjà accessibles ?

Bien sur, il y a des projets emblématiques, comme Wikispeed, ou Wikihouse, ils fabriquent des voitures ou des maisons ouvertes et réplicables. Les projets fameux sont souvent orientés vers une catégorie de produits. Mais la réalité économique de l’open source hardware, pour l’instant c’est surtout l’outillage. A titre d’exemple, les deux tiers du revenu généré par l’open hardware concernent l’équipement électronique OSHW. Les projets actuels ne forment pas un avenir en miniature, mais plutôt une amorce.

S’il fallait relever une entreprise de l’open source hardware particulièrement organisée pour s’adapter à terme, je citerai Thingiverse. Sur cette plateforme, les objets open hardware ne manquent pas! C’est une immense bibliothèque de tout et n’importe quoi réplicable librement. On peut y trouver une pièce pour sa machine à laver, des plans de mortiers à imprimer, une lampe de designer à découper soi-même, des lunettes de soleils lowcost, des trucs parfaitement inutiles, des choses essentielles,…  Tout y est gratuit, 100% pair à pair. La plateforme  ressemble à bien des aspects à ce que pouvait être Youtube à ses débuts. Une poubelle, pas très rentable, pas très smart, pas très élégante non plus. Mais organisée pour apprendre sans filtre et en masse sur ce que font les concepteurs et ce qui intéresse les utilisateurs.

3- Quels pourraient être les modèles d’organisation qui pourraient rendre viables les acteurs qui s’investissent dans la création de produits open source ?

L’une des publications de référence récente sur cette question, c’est Open Models, sorti récemment sous l’égide de Louis-David Benyayer et Without Model. Benjamin Tincq, Léo Bénichon ou Martin Kupp y décrivent, avec leur vision d’experts du manufacturing et de l’OSHW, à quoi ressemblent les business models ouverts de l’open hardware.

Parmi les idées qui me plaisent, il y a celle du ‘designers commons’ -en référence aux ‘commons’ étudiés par Elinor Ostrom. Le métier du concepteur repose aujourd’hui sur la création de modèles constituant son stock. Le designer génère ses revenus en cédant un certain nombre de droits ou d’exclusivité dont il dispose à un fabricant ou un éditeur. A ce jeu, celui qui possède le marché d’utilisateurs finaux récupère la plus grosse part du gâteau.

Les nouveaux modèles pourraient rebattre les cartes. La fabrication numérique se développe et devient un mode de fabrication concurrent des chaînes en série. Avec elle, la fabrication à la demande, adaptée à l’extrème aux besoins explicites de chaque utilisateur. Ils exercent sur cette chaîne un contrôle direct.

Quel sera le rôle du designer dans ce contexte nouveau? Il pourra suivre les tendances des communautés d’usagers et leur proposer des solutions à un stade très primaire. Sélectionné par la curation collective et non la sanction d’un intermédiaire, il pourra engager cette communauté et la guider. En interaction, il pourra la mobiliser pour passer les obstacles naturels à la création du prototype, puis du produit: financement d’amorçage, dépenses, tests et épreuves diverses, feedbacks utilisateurs, génération d’une image autour du produit…

Le fait d’être open source permet certes à n’importe qui de se saisir du plan d’un produit, mais ne remplace pas l’expertise accumulée, ni la communauté qui l’a porté en co-opération, ni les expériences uniques qu’ils ont partagées. Dans ce contexte d’autonomie renforcée, le fabricant et l’éditeur ont un rôle, mais n’ont plus le contrôle, condition nécessaire à la concentration industrielle. On peut donc supposer que l’open source favorise des modèles décentralisés.

Je crois beaucoup dans le développement de ‘designers&users commons’, de coopératives de co-designers -appelons les comme on veut. Des entités coopératives dotées d’un modèle économique soutenable. L’open source y assurerai la confiance, l’autonomie, l’efficience et l’utilisation loyale de la ressource commune. Les fablabs sont en quelque sorte un prototype incarné et hobbyistes de ces communaux. On voit bien le degré élevé de sympathie et d’attraction curieuse qu’ils inspirent à la population, indépendant du nombre de ses usagers. Enfin, ces communaux pourront coopérer entre pairs, au niveau global pour renforcer un écosystème d’acteurs, plutôt que de s’étendre indéfiniment dans un jeu de conquête cruelle et féodale au terme duquel Ikea vend seul et à tout le monde un même meuble en carton.

Rocking Chair openlifelab

4- Quelles sont pour toi les conditions de succès à grande échelle pour l’open source hardware et les principaux enjeux à l’avenir ?

Il me semble que la pièce manquante pour toucher des utilisateurs à grande échelle, c’est… le manque d’attention portée aux utilisateurs ! On ne sait rien d’eux, même pas si un jour un label ‘open source’ aura une influence quelconque sur le choix d’un produit. On sait que la réparabilité ou la personnalisation sont des qualités attendues, mais quel est le scénario permettant son adoption fluide par des consommateurs qui, aujourd’hui, achètent encore beaucoup selon le prix sur l’étiquette?

Jugés sur des critères du marché et non du labo, les produits open sources disponibles aujourd’hui sont encore peu attractifs. Ils ne sont pas connectés aux usages de ceux qui pourraient vouloir se les procurer. En comparaison, les marques classiques savent travailler dans le détail la désidérabilité de leurs produits, y compris lorsqu’elles reprennent les codes de l’Open

Ce n’est pas une fatalité cependant, les opérateurs classiques n’ont pas d’avantage naturel insurmontable. Comme l’explique Eric Raymond (5), étayé par le développement économique de l’open source logiciel, les produits open sources sont plus enclin à l’amélioration rapide et à l’adaptation au marché que les produits propriétaires. Il ne reste donc plus en théorie qu’à enclencher cette relation amoureuse nécessaire avec l’utilisateur -expérience / apprentissage.

Dit autrement: les objets open peuvent avoir des mérites reconnus, mais ce n’est que lorsqu’un utilisateur le pointe du doigt et dit « je le veux » que la grande machine à fabriquer peut se mettre en route. Appelons cela l’ ‘index utilisateur’, et considérons que c’est un but à atteindre, au même titre que le caractère recyclable! Pour amorcer ces conditions initiales, travailler ce terreau favorable, attirer cet ‘index utilisateur’, permettant à la chaîne de s’animer à grande échelle. Si l’on souhaite développer l’open source des objets, il faut donc d’urgence travailler à l’engagement des designers dans des projets ‘makers’.

5- Atelier ‘Open:Design’

Et justement , c’est le sens de l’atelier que nous organisons à Mutinerie. Réunir des designers et des spécialistes de la fabrication et de l’open source afin d’explorer, ou de défricher, des scénarios d’accès des praticiens à l’open source, tout en gardant à l’esprit que ces scénarios ne seront adoptés que s’ils tiennent compte de la fragilité économique, juridique et éthique de la position du designer.

Lorsque j’en ai parlé autour de moi, j’ai été surpris de l’intérêt pour ce sujet. Nous aurions pu faire grossir l’atelier, mais avons préféré avec ma complice Charlotte Guislain conserver un format plus confidentiel autour d’une quinzaine de spécialistes, et garder l’esprit vivant du défrichage. Je pense que nous sommes à la préhistoire de ce mouvement. L’open source des objets en 2015, c’est le Web en 1994, à la veille d’une explosion à laquelle personne n’osait croire. Personne n’est évidemment en mesure de prédire comment les choses vont réellement se passer.

Cet article Ma maison en open source est apparu en premier sur Mutinerie, libres ensemble - espace de coworking à Paris.

17 Feb 18:40

Objets connectés : les solutions Ifop pour mieux appréhender cet univers et leurs usages

En 2014, seuls 8% des Français n’avaient jamais entendu parler des objets connectés, et 51% déclaraient savoir exactement ce que c’est*. Les objets connectés ne semblent donc plus être un mystère pour les Français, notamment grâce à l’apparition de nouveaux produits grand public, très médiatisés (montre connectée, bracelet, trackers d’activité etc.). On compte par ailleurs 23%* de early adopters, possédant principalement une montre, un bracelet, un tracker d’activité ou aussi différents équipement domotiques. Ces premières tendances permettent d’identifier les secteurs les plus porteurs à court terme, puisque 21% des individus seraient prêt à s’équiper d’un objet connecté dans l’univers de la maison, 20% dans l’univers sport et bien-être, 18% dans l’électroménager, et 17% dans l’univers de la santé*. Après les réseaux sociaux et à côté des objets communicants (machine to machine), les objets connectés sont donc la promesse de nouveaux produits et services, à forte valeur ajoutée. Un marché en devenir, où tout reste à faire, à commencer par interpréter les comportements des consommateurs, comprendre leurs attentes et identifier leurs futurs usages. Dans ce contexte, et fort de son expertise digitale, l’Ifop a mis en place plusieurs observatoires et protocoles d’études pour permettre aux annonceurs de mieux appréhender cet univers et les attentes des consommateurs, tous secteurs confondus : > L’Observatoire des objets connectés, délivrant des données de cadrage et d'informations sur le devenir de cette catégorie en recueillant l’avis d'early adopters. > L’Observatoire des objets connectés par univers, pour mieux comprendre les attentes spécifiques des consommateurs, avec des rapports ciblés par univers. > L’Observatoire de la M-santé, qui propose un suivi complet et annuel des usages et comportements des mobinautes en matière de m-santé pour aider à la compréhension de ces derniers. Découvrez aussi les offres digitales de l’Ifop : Ifop Mobile Diary, Vizmo, InStore Vision, Picture Prospective… * Source : Observatoire des Objets Connectés 2014, Ifop
17 Feb 09:42

Privacy Impact Assessment

by CIL-CONSULTING@slideshare.net(CIL-CONSULTING)

Le développement des nouvelles technologies de la communication, de surveillance et de marketing comportemental s'accompagne de nouveaux challenges pour la protection de la vie privée et des données personnelles. Le PIA est un outil au service des entreprises publiques ou privées qui au delà de la seule conformité souhaitent intégrer la problématique de protection de la vie privée au coeur de leur culture d'entreprise.
16 Feb 23:18

Grand Prix BVA de la recherche en Marketing - Edition 2015


BVA organise une nouvelle édition du Grand Prix BVA de la Recherche en Marketing. Une initiative qui vise à contribuer au dévelop...
16 Feb 12:50

Comment le mobile s’est fait une place chez Renault

by Benoit Zante
petrovitch-njegosh-renault-260x256

Qui ?
Boris Petrovitch Njegosh, Directeur de Création et d'Innovation Digitale chez Renault.

Quoi ?
Les retours d'expérience de Renault sur le mobile, présentés lors d'un petit déjeuner organisé par Adobe.

Comment ?

En quelques années, Renault a beaucoup progressé sur le mobile. Fini le temps où chaque service développait son application dans son coin : "nous avons un "steering committee" qui décide quelles applications lancer, avec de véritables roadmaps. On a compris que faire des applications c'est une chose, mais qu'il faut ensuite leur donner une visibilité" explique Boris Petrovitch Njegosh. Le mobile se retrouve désormais au centre de l'écosystème digital du constructeur : il n'est plus cantonné à la communication et à l'image de marque, comme à ses débuts.

Le mobile assure en effet de plus en plus la connexion entre la marque, le client et le véhicule, tout en permettant de collecter de précieuses données. Une révolution pour le constructeur, qui lui impose de revoir ses méthodes de développement et de conception d'applications. Une démarche qui s'inscrit dans un cadre plus global : pour centraliser toute sa présence digitale, le groupe a déployé une plateforme commune à Renault et Nissan, conçue par DigitasLBi : Helios, opérationnelle depuis janvier 2015. Cette plateforme permet de gérer les services, les sites web et mobile, les applications et l'e-commerce du groupe.

"Nous nous sommes beaucoup intéressés aux grandes entreprises de la tech et aux pure-players, pour comprendre comment ils travaillent" explique Boris Petrovitch Njegosh. Résultat : la mise en place d'un nouveau mode de développement mobile, qui s'appuie sur le prototypage et l'itération. Dans un timing record, en 45 jours, pendant  l'été 2014, le département UX a ainsi déployé un pilote de l'application MyRenault sur iOS, intégrant de nombreux services innovants. "Nous nous sommes demandé ce qui allait faire la différence, faire venir nos clients dans l'application et surtout, les pousser à revenir", sans pour autant négliger les prospects : "le but est d'attirer le plus tôt possible les utilisateurs dans notre écosystème d'applications et de services."

Après avoir enregistré sa voiture en prenant en photo sa plaque d'immatriculation, le client peut suivre l'entretien de son véhicule, prendre contact avec son concessionnaire et planifier ensuite un rendez-vous directement depuis l'application. L'expérience intègre même un volet transactionnel, avec la génération de devis, suivie du pré-paiement de la réparation ou de la révision, validé en scannant son empreinte digitale. Le rendez-vous est ensuite ajouté au Passbook ou au calendrier. De l'up-selling peut aussi être proposé, avec l'intégration d'offres spéciales ciblées.

"L'application devient l'endroit où l'on peut faire se rencontrer différents services, pour proposer une expérience de bout en bout. L'innovation, ce n'est pas réinventer la roue, c'est aussi prendre différents éléments existants pour les combiner d'une nouvelle manière". La génération des devis ou la connexion avec le calendrier des garages étaient des web-services déjà présents dans l'écosystème Renault, mais ils n'avaient jamais été associés ensemble. Ces services n'avaient pas été intégrés aux cahier des charges. "Il faut avoir la souplesse et l'ouverture d'esprit pour saisir les opportunités et reconnaître les pépites. Si on s'était cantonné au cahier des charges, on serait passé à côté !"

Cette application "hybride" (mixant langages web et langages spécifiques à iOS) a aussi été l'occasion de faire évoluer la façon de maintenir les applications, avec la mise en place un système centralisé de gestion des contenus, pour pouvoir la mettre à jour comme un site web. "Une application, c'est comme un site, ça vit, il faut l'imaginer à deux mois comme à deux ans." Les différents éléments créatifs, qu'ils proviennent du CRM, du digital ou du rich media, sont fédérés au sein d'un même outil, Phonegap Build. "Notre objectif est de rationaliser ces assets créatifs pour qu'il y en ait le moins possible."

Pour développer cette expérience innovante mais facilement duplicable sur d'autres plate-formes, Renault a appliqué la règle des 80-20 : 80% de contenus web mutualisés et 20% de contenus spécifiques à la plateforme (intégration du calendrier Android ou iOS, ajout de notification, utilisation du système de paiement natif...). "Avant de se lancer, il faut choisir ses technologies avec beaucoup d'attention, mener de vraies études d'architecture. Sur ce projet, nous avons travaillé main dans la main avec la DSI, qui nous apporte une sécurité. Venant du design, je n'y étais pas habitué. Mais maintenant, je ne peux plus me passer d'eux."

Benoit Zante

14 Feb 21:11

How to Capture the Attention of Distracted Consumers in the New American Family Room

by CEB Icono
Jean-Philippe Cunniet

Etudes @Home

by Rachel Steinhardt

How do you solve a problem like consumer distraction? You stop thinking of it as a problem, and start seeing it as a chance to invite consumers to distract each other even more.

That somewhat churlish-sounding platitude turns out to be reasonable advice for brands hoping to create a brand strategy that undoes some of the damage done to first-screen (or one screen) content engagement.

fim_AYTMedia_391510_2

While the research CEB Iconoculture conducted among our IconoCommunities participants for our Iconosphere presentation “Alone Yet Together” yielded relatively clear answers about how parents and children feel about gadgets on the couch (most families “co-media multitask” with first, second and even third screens, and they often use them to connect to, rather than distance themselves from one another), it was harder to ascertain what media, entertainment and tech-related brands should do to pull eyeballs and brains in the most desirable direction.

But by studying up on a few basic tenets of human psychology and attempting to define specific scenarios out of the most common tech-consumption behaviors, we hit upon a deceptively simple truth: Families are desperately seeking ways to play, learn, laugh, discuss and, most importantly, bond with each other while they have devices in hand and the TV streams a family show. It’s a brand’s job to create tech-bolstered media that unlocks those positive emotional moments, and fights hard not to let family members slide into individual, introverted media silos.

We hear you: Subtly forcing quality time sounds contradictory; like a parent hell-bent on a fun-filled road trip while the kids sulk in the back seat. But it doesn’t have to feel that way. Brands shouldn’t focus exclusively on apps that cajole kids and parents to pay exclusive attention to what’s happening on the TV screen (the equivalent of the well-intentioned road trip). That ship has sailed. Instead, the goal is to create a contextual digital experience (an app, video, game, etc.) that is so surprising and so blurt-worthy that it demands to be shared across the room; shouted over the din of the TV, or, equally likely, texted and tweeted and Instagrammed and SnapChatted, and even better — held aloft, screen turned outward alongside a amused face that demands, “YOU GUYS, LOOK!” Ready for more? Then click here for the executive summary. And CEB Iconoculture members can read the complete Research Brief here.

 

Photo credit: neilojwilliams, Flickr.com

14 Feb 21:09

Les enjeux juridiques des projets IOT décryptés par Me de la Motte Rouge, Avocat IP/IT

by administrator
Jean-Philippe Cunniet

Avocat, Juridique, IOT

Avocat Expert IoT - Henri de la Motte Rouge

Avocat Expert IoT – Henri de la Motte Rouge


Interview Exclusive de l’avocat Expert dans le domaine des objets connectés : Henri-de-la-motte-rouge

Quelles sont les problématiques des fabricants d’applications pour objets connectés

La première problématique est celle de la multiplicité des intervenants. En effet le domaine des objets connectés nécessite de réunir un ensemble de compétences dans différents secteurs, électronique, informatique, communication, design mais également des spécialistes du secteur dans lequel l’objet connecté opérera, par exemple la santé.
L’écosystème des objets connectés est ainsi très étendu. De plus ces acteurs n’ont pas tous les mêmes intérêts, le même business model. Certains se basent sur la data, d’autres sur la commercialisation des logiciels et enfin certains sur la conception de l’objet lui-même (hardware et circuits électroniques).

Il nous faut traduire tout cela contractuellement de façon claire et sécurisante pour nos clients qui interviennent dans tous les maillons de la chaine.
Nous disposons dans le droit commun d’outils pour encadrer ce nouveau domaine (responsabilité des produits défectueux, responsabilités du fait des choses). Plus encore que les biens traditionnels, les objets connectés sont susceptibles de causer des dommages physiques ou corporels, d’autant qu’ils peuvent également être détournés par des tiers, risques que nous devons prendre en considération.
Notre expérience acquise dans les contrats informatiques nous conduit à être très vigilant sur la répartition des responsabilités, les transferts et les garanties dans ces chaines contractuelles complexes.
Les enjeux de propriété intellectuelle, sont souvent au cœur des négociations. Compte tenu de la multiplicité  des intervenants et des fournisseurs il faut bien encadrer les cessions. Précisions que les applications autour des objets connectés se basent souvent sur des licences open source qui présentent néanmoins des contraintes d’exploitation, ce qui est généralement ignoré.
Si la solution présente une innovation technique, la question de la brevetabilité peut se poser, notamment dans le domaine de la santé.

Néanmoins, la plupart du temps, l’apport principal de ces objets se situe dans le concept non protégeable en l’état. Les questions d’exclusivités des fournisseurs sont donc sensibles.
Enfin, et ça n’échappe à personne il y’a des enjeux en matière de données personnelles. Il convient d’avoir conscience des flux et du type de données collectées pour se conformer à la réglementation informatique et libertés.

La qualification de la donnée collectée est un sujet important. En effet, de nombreux objets connectés sont créés dans le domaine de la santé ou en périphérique (le quantified self est traditionnellement en vogue dans le marché de l’internet of things). Or, si la donnée est une donnée dite « de santé », il y’aura des contraintes strictes telle que l’obligation d’hébergement chez un hébergeur de santé agréé.
Pour conclure il est indispensable lorsqu’on se lance dans une activité dans ce secteur d’évaluer son niveau de risque juridique et de bien comprendre les enjeux et la répartition des responsabilités. Les investisseurs seront sensibles à ces informations.

Comment préserver la sécurité des données récoltées ?

Cette question est à traiter avec des experts de la sécurité informatique.
D’un point de vue contractuel, il convient de cadrer juridiquement l’intervention des prestataire qui participeront à la solution en les obligeant à se conformer aux standards de sécurité prévus par la CNIL.
Le niveau de sécurité exigé dépendra du type de données collectées avec des obligations particulières s’agissant des données sensibles comme les données de santé.

Comment voyez-vous évoluer le marché des objets connectés ces prochaines années

Pour le grand public, l’objet connecté reste aujourd’hui un gadget commercialisé par des start-up.
Néanmoins, les grands groupes industriels fortement en demande de connectivité pour améliorer leur productivité et leur connaissance des consommateurs, jouent un rôle important dans le processus de développement du marché des objets connectés.
Une étape majeure dans la maturation du marché va être la création de normes de référence qui permettront l’interopérabilité des systèmes et des objets.
Toutes les grandes entreprises ont leur projet « objets connectés ». Industrie pharmaceutique, Banque, Assurance, Energie, Textile, Transports … On peut raisonnablement penser qu’elles imposeront bientôt leurs technologies et normes techniques.
Connecter les objets c’est permettre d’optimiser leur production, leur fonctionnement, leur fonctionnalité. Ainsi le réseau électrique français a décidé de connecter ses compteurs (Linky).De même la grande distribution installe des puces RFID sur ses produits pour optimiser sa logistique.

Rapidement va se créer un écosystème de produits et de services autour de ces objets commercialisés à grande échelle qui vont pénétrer notre vie quotidienne.
Dans ce cadre, les besoins de régulation seront nécessaires. S’agissant des données collectées, le G29 qui regroupe les autorités de régulation comme la CNIL au niveau européen, rappelle  dans un avis d’octobre 2014 que la réglementation informatique et libertés s’applique à l’ « internet of things ». La CNIL indique qu’elle sera vigilante sur l’exploitation des données et le consentement du consommateur.
D’un point de vue environnemental, le traitement des objets et des circuits électroniques qui créeront toujours plus de déchets mériteront aussi des réflexions.

Pouvez-vous vous présenter et présentez votre spécialité pour ceux qui ne vous connaissent pas encore ?

Avocat au barreau de Paris, j’ai fait mes classes au sein de structures réputées en IP/IT et droit de l’informatique, Direction juridique de LAGARDERE ACTIVE, Cabinet NOMOS, Cabinet Alain BENSOUSSAN.
En 2012, avec un ami ingénieur diplômé de Telecom Paris, j’ai fondé le cabinet LA MOTTE ROUGE Avocat www.lamotterouge-avocat.com
Fort de nos expériences précédentes, nous sommes partis du constat que l’expertise technique était indispensable pour comprendre nos clients innovants et délivrer un conseil juridique efficace et sécurisant. Notre double compétence s’avère également une arme redoutable en contentieux.
Aujourd’hui nous accompagnons des Start-up innovantes, des sociétés plus importantes, ainsi que des cabinets d’avocats d’affaires, sur toutes ces questions. Notre expertise est principalement sollicitée en matière de propriété intellectuelle et industrielle (marques, brevets, logiciels), droit de l’informatique et de l’internet et de manière générales sur tous les sujets technologiques de pointes dans lesquels le Droit finit toujours par s’immiscer. Le marché des objets connectés en est une parfaite illustration.

Par ailleurs, nous serons également présents sur le salon Health IT expo (Salons Santé Autonomie) du 19 au 21 mai pour rencontrer librement et faire bénéficier de notre expérience les Start-up de l’e-santé dans le cadre du Village Start-up.

 

Pour plus d’informations sur le Cabinet LA MOTTE ROUGE Avocat

www.lamotterouge-avocat.com

hdlmr@lamotteroug-avocat.com 

 

 

 

The post Les enjeux juridiques des projets IOT décryptés par Me de la Motte Rouge, Avocat IP/IT appeared first on Les Objets Connectés.

14 Feb 20:48

Objets connectés et big data au service de l’agriculture et des villes - Marc Giget, pour Frédéric Villain, fondateur de DS

by Mardis de l'innovation
Jean-Philippe Cunniet

Agriculture, Big Data

Objets connectés et big data au service de l’agriculture et des villes

Marc Giget, pour Frédéric Villain, fondateur de DSI, ( Demand Side Instrument )

Mardi de l'innovation, 20 Janvier 2015.

Cast: Mardis de l'innovation

Tags:

14 Feb 20:47

Bienvenue à la promotion 2015-2016 MS Management digital et stratégie de marque

by Raluca Loury
Jean-Philippe Cunniet

Voici les étudiants qui pourraient donner leur avis puis bosser pour WH sur nos problématiques (au centre, le chauve c'est Paul que j'ai rencontré)

L’ESSCA et l’Institut du marketing digital ont le plaisir d’accueillir la promotion 2015-2016 de Mastère Spécialisé en Management Digital et Stratégie de Marque. Cette année la promotion est parrainée par Sony Music Entertainment.

« Comme la musique, le digital influence les relations entre les individus et fait évoluer les règles et les usages. Or, l’apparition de nouvelles technologies produit souvent des résistances. Le Mastère Spécialisé de l’ESSCA prépare les étudiants à anticiper tous les changements liés à l’avènement du digital et forme des leaders d’opinion face à ce nouvel enjeu, avant tout d’ordre culturel. »  Témoignage Claude Monnier, DRH Sony Music Entertainment

photo 2

 

14 Feb 20:44

Survey Shows Innovation Budgets Increasing in 2015

by Harris Interactive
Jean-Philippe Cunniet

Ca compensera les budgets études en baisse :)

14 Feb 09:44

Savez-vous combien "vaut" votre génome ? Pas moins de 20.000 $ pièce !

by Billaut

20.000 $ : vous avez bien lu ! C'est en effet le prix payé par un "big pharma" à la startup 23andme qui dispose à aujourd'hui un peu plus de 800.000 séquençages d'Etres Humains.

C'est beaucoup plus que la monétisation que fait Facebook avec la vente d'espaces publicitaires à partir des contenus que chacun d'entre nous y publions. Revenus qui ne sont que de l'ordre de 8 $/an par utilisateur !

On comprend donc pourquoi tous les grands de la technologie américaine vont se lancer dans ce nouvel eldorado de la génomique, la startup californienne 23andme ayant montrer la voie.. Ces nouveaux acteurs vont bypasser les milieux médicaux traditionnels et les big pharmas, ces derniers s'arrachant à prix d'or les milliers de séquençages génétiques que les clients de 23andme et autres startups spécialisées dans ce domaine leur ont demandé d'effectuer... En attendant que Google et les autres arrivent avec leurs chars d'@ssaut...

Pourquoi cet engouement  ? Simple ...

Pour essayer de trouver le premier, un nouveau médicament, un nouveau vaccin, un nouveau protocole qui à terme sera personnalisé pour chaque malade - ou plutôt pour chaque bien portant a priori- mais qui pourrait tomber malade !.. L'eldorado du prédictif ! De plus en plus de scientifiques (et même quelques politiques éclairés - mais ils ne sont pas chez nous !) pensent en effet que l'éradication du cancer et aux saloperies qui affectent l'Humanité passent par la génomique et son analyse grâce au big data et à l'intelligence artificielle. D'où cet engouement..

Mais commençons par un petit rappel.. histoire de fixer les choses...

Il me semble que d'une façon générale, les Français sont assez peu familiarisés avec cette génomique.. A savoir la science du génome.. Certes, tout le monde a entendu parler des tests ADN (Acide DésoxyriboNucléique) que les policiers utilisent pour confondre un malfaiteur, un criminel.. Mais de là à comprendre la mécanique qui se passent dans nos cellules et leur noyau, pour ce que l'on en sait en tout cas à aujourd'hui.. Car on est encore loin de tout comprendre.

Capture d’écran 2015-02-07 à 10.04.32

 

Un Etre Humain est composé d'environ 100.000 milliards de cellules (on ne les a pas compté, c'est une estimation). Cellules donc qui forment nos tissus et nos organes.. Chacune d'entre elles est composée de divers éléments, et notamment d'un noyau (sauf certaines, comme les cellules sanguines qui n'en ont pas). Chaque noyau contient 23 paires de chromosomes : ce fameux ADN. Une paire vient du père et l'autre de la mère, puisque nous nous reproduisons de génération en génération par une "mécanique" d'accouplement.

C'est cet assemblage "sexuel", qui permet de "fabriquer" un nouvel Etre Humain. Dés que le spermatozoïde, qui porte les chromosomes du père, entre dans l'oeuf de la mère, qui lui porte les chromosomes de la mère, la première cellule du nouvel Etre va se fabriquer, et la mécanique du vivant va se mettre en oeuvre, par divisions successives.. 2 cellules, puis 4, puis des milliards, etc.. Et cela tout au long de la vie de l'Etre Humain, jusqu'à sa mort et la mort des cellules (d'ailleurs programmée par les télomères qui se trouvent au bout de chaque chromosome - à chaque division le télomère se raccourcit, et quand il y en a plus : couic ! La cellule meurt).

La fameuse double hélice du chromosome a été découverte en 1953 par Watson et Cricks.

Capture d’écran 2015-02-10 à 09.26.35

 

Mais il a fallu attendre 2003 - soit 50 ans plus tard -, pour savoir comment était composé les barreaux de l'échelle.. Et à quoi cela pouvait bien servir. C'est un américain dénommé Craig Venter qui a séquencé le premier un génome : son propre génome.. Il lui a fallu plus de 10 ans pour se faire, avec un investissement de plus de 3 milliards de $ - soit le même montant que celui qui a été nécessaire pour envoyer un homme sur la Lune ! Séquencer veut dire mettre à la suite l'un de l'autre les barreaux (comme on le voit sur le tableau, derrière Watson et Cricks).

Un chromosome est en effet composé de "morceaux" de taille différente, que l'on appelle des gènes. Et chaque gène est composé d'une suite de "barreaux", lesquels comprennent chacun 2 éléments chimiques parmi 4 seulement que l'on désigne par des lettres : A, T, C, G. Ces éléments sont appairés 2 à 2 (les barreaux..) sur une "échelle" qui, si elle était déployés ferait 2 m de long (si l'on mettait bout à bout tous les 46 chromosomes de toutes vos cellules, cela ferait plusieurs fois le trajet de la Terre à la Lune !).Au total on estime qu'un génome d'un Etre Humain contient environ 20.000 gènes.

Le A est toujours appairé avec le T et et le C avec le G.. Au total c'est plus de 3 milliards de lettres qui constituent le "dictionnaire", le programme, qui fait ce que vous êtes : votre operating system. Car certains de ces gènes vont jouer un rôle très important, notamment dans la fabrication des protéines.

L'Etre grandit donc grâce à cette division, division qui concerne aussi les chromosomes .. Et cette division va continuer tout au long de la vie du nouvel Etre. Des millions de duplications se font tous les jours dans notre corps. Le problème, c'est qu'en se divisant les chromosomes font des erreurs. Des bugs (un peu comme Windows..). La plupart ne portent pas semble-t-il à conséquence (en l'état actuel des connaissances). Mais certaines sont dramatiques. Par exemple si le gène BRCA1 du chromosome 4 d'une femme mute (donc une erreur dans sa réplication), c'est le cancer du sein assuré à 90 %.
C'est pour cela que l'actrice Angelina Jolie s'est fait faire une double mastectomie. Elle a pris les devants de façon drastique. Mais il est probable que dans les années à venir, on pourra disposer de moyens pour éviter cette amputation, en étant informé dés le début de la mutation de ce gène. Puis de la corriger. Mais nous n'y sommes pas encore. Et pour comprendre toute cette mécanique, il faudra certainement mettre ensemble des centaines de milliers de séquençages génétiques pour analyser ces mutations avec du big data, et de l'intelligence artificielle.. Et naturellement refaire son séquençage à intervalle régulier, histoire de voir qui a muté.. De plus, il faudra comprendre l'impact de la "culture" de chacun sur l'évolution de la structure de son génome.. (Le Monde devrait publier sur l'un de ses blogs une suite d'article que j'ai écrit sous le titre : "D'Hippocrate à Watson - pourquoi le système de santé français risque de se faire disrupter").

Une partie de la communauté scientifique, et surtout quelques startups avant-gardistes pensent que la structure du chromosome est la clef de la médecine prédictive. Contrepartie du développement de cette nouvelle médecine, cela devrait entraîner un certain déclin de la médecine dite curative d'aujourd'hui (que le père Hippocrate a mis sur les rails il y a quelques siècles !). Aujourd'hui en effet, on attend que le cancer se développe pour en prendre conscience, et on essaye ensuite de réparer les dégâts avec de la chimiothérapie que l'on "subit" dans les hôpitaux, etc...

Le prédictif permettrait donc de prendre les devants..

23andme : la startup disruptive...

Cette startup a été créée en 2006 par Linda Avey et Anne Wojcicki (à l'époque Anne était l'épouse de Serguey Brin, l'un des 2 fondateurs de Google - elle en serait séparée aujourd'hui )..

Capture d’écran 2015-02-05 à 09.58.56

 

Elle propose à tout un chacun dans le Monde, de faire son séquençage génétique. Même vous, Français, vous pouvez le faire sans bouger de chez vous ! Il suffit d'aller sur le site Web de 23andme, de vous enregistrer, de remplir un petit formulaire (on vous demande si vous avez des poils sur la poitrine, sur le dos, etc..). Et de payer (99 $ aujourd'hui). Vous allez recevoir par DHL sous une enveloppe anonyme, un kit comprenant un petit flacon. Vous crachez dedans, vous le refermez, vous rappelez DHL, on vient rechercher le paquet chez vous. Le tout - toujours sous enveloppe anonyme - est envoyé dans un laboratoire spécialisé à Los Angeles. Un mois plus tard vous recevez un mail qualifié de sécurisé.. Et l'on vous donne quelques indications sur l'origine de vos ancêtres, et quelques probabilités de maladies que vous pourriez avoir. Voilà en gros le processus.. 

Et vous Français, vous n'avez pas à demander une permission à l'une quelconque de nos élites médicales. Car en France, vous ne pouvez pas décider de vous-mêmes de faire faire le séquençage de votre propre génome ! Il vous faut une autorisation médicale. Le coût vous en sera remboursé par notre Sécurité Sociale. Ce qui n'est naturellement pas le cas si vous faites faire votre séquençage aux USA où dans un autre pays (DNAVision en Belgique). Mais comme cela coûte de moins en moins cher..

Voilà en gros une très brève description de la mécanique...

Quelques réflexions... et élucubrations... pêle-mêle...

1/ Le séquençage chez 23andme, n'est pas un séquençage complet. 23andme ne séquence en effet que quelques pouillèmes de votre ADN (les SNP). D'où le coût très faible. Car le prix d'un séquençage complet est de l'ordre de 1.000 $ aujourd'hui. Il ne devrait pas tarder à passer sous la barres de 100 $ ! A noter que ces coûts s'entendent sans interprétation.

2/ La FDA américaine (le Ministère américain de la Santé) vient d'interdire à 23andme de donner à son client les probabilités de maladies potentielles.. Probablement du fait que 23andme ne fait pas un séquençage complet (?)..

3/ A aujourd'hui, 23andme a stocké dans son cloud sécurisé - chez Google ? - environ 820.000 génomes d'Etres Humains, et 60% des personnes séquencées lui ont donné la permission d'utiliser pour la recherche leur séquençage de façon anonyme. 23andme vient ainsi d'annoncer un accord avec le big pharma Roche Genentech, qui va débourser 60 millions de $ pour récupérer 3.000 séquençages d'Etres Humains atteints d'un début de la maladie de Parkinson. Genentech pense ainsi pouvoir mettre au point de nouveaux médicaments/processus pour éviter que cette maladie ne se développe, voir la guérir. Et naturellement, mettez-vous à sa place, à en être le premier !

60 millions de $ divisé par 3.000 = 20.000 $ ! CQFD ! C'est un prix "spot" si l'on peut dire.. Pas évident que dans le futur... ce prix soit au même niveau. Il pourrait être même plus élevé ! Car les big pharmas et autres commencent probablement à se rendre compte que leur business traditionnel de fabrication de molécules arrive à une limite. D'autant plus que la dite molécule n'est pas personnalisable pour tout un chacun ! C'est la même pour tout le monde. Il va donc y avoir probablement une ruée sur les génomes..

23andme a aussi passé des accords du même type avec un autre groupe pharmaceutique : Pfizer. En fait, il semble que plus d'une dizaine de partenariats de cet type ont déjà été conclus ! On comprend l'intérêt des grands de la technologie américaine. Google d'abord, 23andme en est en effet très proche (Google a investi 3,9 millions de $ dans 23andme). Ce même Google propose lui aussi de stocker le fichier correspondant à vos 3 milliards de lettres pour seulement 25 $/an. Mais il vous faut faire faire le séquençage ailleurs que chez lui. Les autres sont dans les starting blocks : Facebook, Amazon, SalesForce ont ainsi annoncé leur arrivée dans ce domaine. Apple, IBM, Microsoft n'en doutons pas, ne seront pas en reste. Ils ne vont pas laisser caracoler en-tête les startups comme 23andme, car le marché de la médecine prédictive est énorme, en tout cas plus important que celui du commerce électronique ! Puisqu'il concerne toute l'Humanité !

Il est probable que l'on va voir éclore dans ce domaine plusieurs types de business model.. On remarquera que sur les 20.000 $ empochés par 23andme par Etre Humain séquencé, ce dernier ne reçoit rien.. Il ne monétise pas son génome.

On peut se demander pourquoi ce ne sont pas les big pharmas qui se sont lancés directement dans le business du séquençage de masse. Il faut croire qu'ils n'y avaient pas pensé, engoncés qu'ils sont dans leur domaine traditionnel et leurs lourdes structures. Cela confirme s'il en était, que la "disruption" ne peut venir que de nouveaux entrants (les startups), qui obligent les "big pré-numériques" de s'adapter avec plus ou moins de bonheur.. Et donc de se e-transformer. En tout cas d'essayer.

4/ Le gouvernement anglais vient de lancer son opération 100.000 génomes. Elle consiste à séquencer des milliers de génomes de personnes cancéreuses ou atteintes de maladie génétique. Cette opération est menée en coopération avec 11 hôpitaux anglais. C'est tout ce que l'on sait pour l'instant.

Capture d’écran 2015-02-05 à 10.25.22

 

Le Président Obama s'y met aussi semble-t-il. Lors de son discours sur l'Etat de l'Union le 27 janvier dernier, il a fait un plaidoyer pour une "Précision Medecine Initiative", une nouvelle médecine dans laquelle la génétique serait la pierre angulaire.

5/ Les Chinois, quant à eux, séquencent à tour de bras, tout ce qui vit : poireaux, cochons, Tibétains, malades et bien portants. Ils ont ainsi acheté plusieurs centaines de séquenceurs de choc de la startup américaine Illumina. Que font-ils avec tout cela ? On ne sait pas trop. Probablement mettre au point eux-mêmes les process de la médecine prédictive (après tout la médecine chinoise des temps anciens était du même acabit ?). Et cela pour éviter de tomber sous la houlette de la médecine 2.0 occidentale ? Voir de fabriquer "notre" médecine prédictive ?

6/ La statup "Portable Genomics" (créé par Patrick Merel, un biologiste français du CHU de Bordeaux, expatrié à San Diego - car en France il lui était impossible de créer ce type de startup), devrait vous proposer une interprétation de votre génome sur votre... iPhone. De même Portable Genomics devrait vous rétrocéder une partie des ventes de génomes qu'elle pourrait faire... Vous monétiserez ainsi votre "operating system" comme Patrick l'explique dans cette courte vidéo.

7/ Pour faire séquencer son génome il faut s'adresser à une société spécialisée, qui va utiliser des séquenceurs qualifiés de professionnels (comme ceux d'Illumina qui réalisent aujourd'hui 90% des séquençage dans le Monde). Mais bientôt on trouvera des séquenceurs individuels que l'on pourra acheter comme on achète une smartphone, ou plutôt un device USB que l'on connecte à son ordinateur.. Cas du MinIOn angais. On pourra ainsi faire son séquençage à domicile, de soi-même, des membres de sa famille, de son chien, des salades que l'on ramène du marché.. D'autres séquenceurs de type "électro-ménager" vont probablement arriver sur le marché dans les prochaines années.. D'ici à ce qu'il soient vendus par Darty...

8/ Dernier point à noter.. Comme dans les autres secteurs économiques, le "crowd" arrive. Par exemple une autre startup américaine dénommée SciStarter propose différents applications : Phylo par exemple qui permet à qui veut d'assembler de "vraies" séquences d'ADN;  un jeu d'aventure : Genes in Space; Nanocrafter qui vous permet de fabriquer des nanomachines à base de "vraies" séquences d'ADN comme si vous étiez un grand spécialiste en collaboration avec de vrais spécialistes, etc..

13 Feb 08:18

Où en sont les études ?


Où en sont les études aujourd'hui ? Comment doivent-elles évoluer pour répondre aux enjeux de demain ? Bilan avec G&eacute...
13 Feb 08:11

Dropbox crée un plugin Chrome pour gérer les pièces jointes Gmail

by Yohann Poiron
Jean-Philippe Cunniet

ATTENTION : Mon google chrome semble planter depuis l'install de ce plug-in beta...

Les utilisateurs de Gmail peuvent désormais joindre des fichiers Dropbox directement depuis le célèbre service de messagerie de Google. En effet, le service de stockage sur le cloud, en perpétuelle croissance, vient d’étendre ses capacités dans le but de rivaliser avec la plateforme d’hébergement sur le cloud de Google, Google Drive.

Cette fois, l’équipe derrière Dropbox vient de développer un plug-in destiné à être intégré au sein du navigateur web Chrome, permettant aux utilisateurs de Gmail de joindre plus facilement des fichiers Dropbox.

Le processus est simple : une fois le plug-in installé, en appuyant sur le bouton « Nouveau message » de Gmail, vous verrez apparaître la fenêtre de composition du message, dans laquelle une petite icône Dropbox a fait son apparition à côté du bouton « Envoyer ».

Barre d'outils Dropbox dans Gmail

En appuyant sur cette icône, vous allez ouvrir une interface similaire à l’explorateur de fichiers web Dropbox, permettant à l’expéditeur de joindre des fichiers qu’ils souhaitent à l’e-mail. Cependant, ce n’est pas un attachement standard d’une pièce jointe, puisqu’en réception du mail, le destinataire ne verra pas le petit trombone indiquant la présence d’un fichier.

Interface Dropbox dans Gmail

Cela s’explique par le fait que le plug-in ne joint pas les fichiers nativement à l’e-mail. En effet, ce dernier comporte simplement un lien web pour le fichier de Dropbox.

Une concurrence accrue de nouvelles stratégies

Si le plug-in est encore en version bêta, il pourrait le rester pour un certain temps. Quoi qu’il en soit, il peut être téléchargé et utilisé par quiconque depuis ce lien.

Le marché du cloud est devenu de plus en plus concurrentiel, avec des sociétés comme Apple, Google, Amazon, Microsoft, Dropbox et divers autres qui se bousculent pour s’imposer. Une des meilleures offres disponibles est celle de Microsoft pour ses abonnées Office 365. En effet, ces derniers obtiennent un stockage OneDrive illimité dans le cadre d’un abonnement à l’offre bureautique.

Dropbox a été assez actif ces derniers temps, avec de nombreuses actions pour rester au top dans le stockage sur le cloud. En novembre 2011, Microsoft et Dropbox ont annoncé un nouveau partenariat, qui permet aux utilisateurs d’accéder directement via Dropbox aux applications Office, et vice-versa. En outre, le mois dernier, Dropbox a acquis CloudOn, une start-up qui permet aux utilisateurs de créer, modifier et partager des fichiers en ligne en utilisant Microsoft Office, Google Docs et d’autres formats de fichiers.

flattr this!