Shared posts

21 Jul 09:08

Adobe Launches PhoneGap 3.0 With New Plug-In Architecture, APIs And Better Tools

by Frederic Lardinois
PhoneGap

Adobe today launched version 3.0 of its PhoneGap open source mobile app development platform. PhoneGap has long been one of the most popular tools for developers who want to write cross-platform mobile apps in HTML5, CSS and JavaScript.

With this update, PhoneGap introduces a new plug-in architecture that, the company says, “keeps your app small and fast.” The new plug-in architecture, Adobe says, will allow developers to just include the APIs you need, and plug-ins will then be automatically installed or removed as needed.

With this release, Adobe is also adding two new APIs to its lineup: InAppBrowser for showing web pages in an app and a new Globalization API for checking a user’s locale and timezone.

Adobe has now aligned the command line tools developers can use to work with PhoneGap on different platforms. Previously, developers had to learn new vocabularies as they shifted between native platforms, but the company says that’s now mostly a thing of the past. Adobe’s tools now also integrate with PhoneGap Build — Adobe’s hosted cloud-based service for compiling PhoneGap projects — so you don’t even need to have a native platform SDK installed to compile your apps. Just a few days ago, Adobe also added support for user-submitted plug-ins to PhoneGap Build.

Looking ahead, the company says that PhoneGap will soon offer support for Firefox OS and Ubuntu. The team is also working on making the transition to iOS 7.

The Apache Cordova community did a lot of the work to make this happen. Cordova is the open source project PhoneGap is based on and Cordova also just launched version 3.0 of its framework. The two new APIs Adobe introduced today, for example, have long been part of the Cordova project and just made the jump to Adobe’s distribution now.


19 Jul 07:33

Modern free-standing hall tree

by Jules Yap

Materials: Ikea Besta

Description: I had a hard time finding a modern hall tree; therefore I decided to build one myself using Ikea parts.

Desired functions:
- Shoe storage
- Bench for sitting while putting or taking off shoes
- Hangers for coats and bags

The bottom part is made out of two Besta cabinets with doors.

The back panel is made out of three tall Besta cabinet doors resting vertically on the base cabinet. The three big doors are stitched together and to the bottom cabinet using several wood strips from a hardware store.

The upper shelves as well as the spot lights are also from Ikea.

Currently, the tree hall is almost finished. It just needs a cushion on the bench for a finished look and a more comfortable siting.

~ VMA
18 Jul 11:42

Beautiful Wolf.

Beautiful Wolf...(Read...)

17 Jul 07:41

PayPal a versé 92.000.000.000.000.000$ à un homme

by Norédine Benazdia
A 56 ans, Chris Reynolds est devenu le premier billiardaire grâce à PayPal. Un billiard de dollars, c’est une grosse somme d’argent. C’est mille billions ou 1 million de milliards. Ou encore 1 milliard de millions. Vous arrivez à vous … Continuer la lecture →
16 Jul 17:25

Velocity 2013 – Building a Faster and Stronger Web

by Derek Gathright

If there’s one thing we’ve learned in 20+ years of building Web sites, it’s that performance matters. Browsers need to fetch, parse, and render pages quicker. JavaScript needs to execute faster, HTTP servers need to generate and serve content more efficiently, and caching layers need to be more pervasive. All in effort to make the browsing experience more enjoyable for the user so they browse, click, engage, and buy more. The effect performance has on the bottom-line has been very well documented over the years, and the interest in “fast” is doing anything but slowing down.

So every year, the industry’s experts on speed gather at the Santa Clara Convention Center for Velocity, a conference all about Web performance and operations. Myself, along with other members of the YUI and Mojito teams were fortunate to be on hand again this year to discuss our experiences and learn from others. It was an insightful and inspirational 3 days, and in this post I’ll recap and share some of what we learned with you.


Day 0

Steve Souders
(Steve Souders | “The Illusion of Speed”)

The first day of Velocity-related events consisted of workshops and short Ignite talks, some of which you can find on O’Reilly’s Ignite Velocity YouTube playlist.

One particular talk to highlight is Steve Souders“The Illusion of Speed”, which was especially eye-opening on the importance of speed, or rather the importance of perceived speed. “As much as I love data and metrics, that’s the tail wagging the dog. The real thing we’re after is to create an experience that people love and they feel is fast. We might be front-end engineers, we might be devs, we might be ops, but what we really are, is perception brokers.” In other words, the winner is the experience that makes users the happiest, not necessarily the fastest. Often those are correlated, but not always. Checkout out the video of his talk to learn why.


Day 1

Johan Bergström – Lund University

Johan Bergström
(Johan Bergström | photo credit)

Velocity Conference 2013 kicked off with Johan Bergström‘s presentation about risk management. Bergström is an Associate Professor at Lund University, and while he isn’t an expert on anything Web-related, he is an expert in the field of safety science. He was brought to Velocity to enhance and enlighten our understanding of risk factors in linear and relational systems and provide us with tips to minimize incidents that can lead to errors and downtime in our Web applications.

The main takeaway I got from his 25-minute keynote (which is available on YouTube) was that safety is just an illusion and no systems are actually safe, they are just made less unreliable. Since risk is never truly gone, you should never ignore its presence and continually discuss it amongst your team.

I believe that final point is an important one. Often times we don’t acknowledge risk until something actually fails, and much more can be done to minimize the damages if more proactive steps are taken to account for inevitable failures. Proactive vs reactive.

Kyle Rush – Obama for America

Kyle Rush
(Kyle Rush | photo credit)

The opening day keynotes continued with other presentations by industry experts, including Kyle Rush‘s excellent talk “Meet the Obama Campaign’s $250 Million Fundraising Platform”. Rush’s keynote was based off a blog post he wrote last year. It recapped the donation platform his team built during 2011 and 2012 when he served as Director of Front-end Development at Obama for America.

When Rush joined the campaign he inherited a slow, error-prone Web application. He rebuilt it using a variety of techniques and tools focused on front-end performance, such as serving static sites (built with Jekyll), optimize.ly, WebPageTest, and utilizing JavaScript to off-load as much as possible to the browser. The result was a 60% faster TTP metric (time to paint), a 49% increase in donation conversion rate, and a platform that was processing up to $3 million dollars an hour.

You can find a video of Rush’s talk here. It’s a worthwhile viewing that can give you some insight into what a high-scale, high-performance front-end web application can look like. Also, the Hacker News discussion response to his blog post offers some insightful follow-up conversation.

Arvind Jain – Google

Day 1 keynotes concluded with Google’s Arvind Jain, whose talk (video) was an analysis to answer the question of “Is the Web Getting Faster?”. Using data gathered from Akamai, industry studies, browser benchmarks, and the HTTP Archive, Jain concluded that no, the Web is not getting faster. While the core infrastructure (networks, browsers, protocols, etc.) are getting faster, the Web is primarily getting richer to take advantage of the extra performance capabilities, which results in a nearly equal slowdown.

takeaways

Andrew Betts – Financial Times Labs

After a few lightning demos consisting of new products from Akamai, AT&T, and Appurify, the first day’s sessions kicked off. The first one I attended was a talk by Andrew Betts, a software engineer at Financial Times Labs who spoke on the topic of making Web applications as performant as native apps. In his talk “Escaping the Uncanny Valley”, Betts focused on the challenges his team faced when building the Financial Times HTML5 Web app and how to properly avoid the “uncanny valley” (the point where a Web app tries to be too similar to a native app, but falls short and appears as a clunky, cheap imitation).

Andrew Betts
(Andrew Betts | photo credit)

Some of Betts’ key points:

  • Ensure smooth scrolling with sub-16ms frame rates
  • Ensure any UI pauses are sub-100ms
  • Intelligently use CSS selectors
  • Don’t use flexbox!
  • Disable hover effects
  • Intelligent use of local storage technologies
  • Cache, cache, cache
  • Text re-encoding (see: FT Labs blog post)
  • XHR batching
  • Fast Click
  • Always provide UI response feedback

I recommend a review of the slides for anyone working on mobile Web applications. In them, you’ll find quite a few priceless nuggets of information in there to help save time investigating performance issues, in addition to tips on preventing any bottlenecks.

data storage technologies
(An overview of storage options)

Stephen Woods – Yahoo

Stephen Woods
(Stephen Woods | photo credit)

Following Betts’ talk was another mobile-centric presentation from Yahoo’s Stephen Woods. In Woods’ talk (slides), he echoed some of the same lessons learned while building new Flickr products that Betts did with the Financial Times app, including ensuring that you achieve the magical <16ms frame rate (which equates to 60FPS), and tips for intelligent caching (e.g., “cache values, not DOM nodes”).

Main takeaways included:

  • Cache data where possible
  • Update the UI on user actions, use transforms where possible
  • Multitask when you can, with threads and yielding

Colt McAnlis – Google

Stephen Woods
(Colt McAnlis | photo credit)

A little later in the day was an insightful talk from Google’s Colt McAnlis in which he described the inner-workings of Chrome’s rendering engine, harnessing the power of 3D acceleration, and the tools available in Chrome that can help you create more efficient applications.

The takeaway from this talk was to understand how the rendering process occurs and to design pages with the GPU in mind. As Betts also alluded to in his talk, if you misuse advanced techniques, you can end up in worse shape than where you started. Understand, analyze, then enhance.

Here’s a pdf of his slides.

Day 2


Dylan Richard – Obama for America

Dylan Richards
(Dylan Richards | photo credit)

Day 2 of Velocity kicked off with an insightful keynote from Dylan Richard, who recently spent 18 months as Director of Engineering at Obama for America. In his devops-centric talk, Richard shared some of his experiences and insights during the time when he was tasked with rebuilding the organization’s technology infrastructure, as well as sharing tips for building resilient systems and teams.

Richard reminded us that uptime for critical systems is the primary objective, because “No feature is cool enough to not have a working app.” He is also a strong believer that “You can’t learn unless you are simulating real things”, which of course lead into some discussion of destructive testing.

While this talk certainly was more on the operations side of the Velocity spectrum, there are still valuable insights for software engineers of any kind and is worth a viewing. You can find a video of his talk here.

Ilya Grigorik – Google

Ilya Grigorik
(Ilya Grigorik | photo credit)

During the Lightning Demos portion of Day 2, Google’s Ilya Grigorik introduced some new tools to help you find answers to Web performance-related questions. Grigorik began his talk (video) with Indira Gandhi’s famous quote “The power to question is the basis of all human progress” to emphasize the role curiosity plays in our success as engineers. Grigorik then proceeded to list off various questions many Web developers have such as “Are websites getting faster?”, “What CSS frameworks are the most popular?”, “Is Flash adoption on the decline?”, and more.

It turns out, these previously difficult questions to answer are now relatively easy thanks to the availability of the HTTP Archive data in Google’s Big Query. If you are familiar with SQL, you can now throw together some simple queries and analyze gigabytes of HTTP data scooped up from a crawl of a million websites. Grigorik goes into more details in his blog post.

So naturally, I became curious on the version breakdown of YUI usage and realized the HTTP Archive can help answer that question for me. After some data crunching I was able to generate this chart:

Ariya Hidayat – Sencha

Ariya Hidayat
(Ariya Hidayat | photo credit)


The unix philosophy
(“The Unix Philosophy”)

One of the more educational talks of Velocity 2013 was Ariya Hidayat‘s “Emerging JavaScript Tools to Track JavaScript Quality and Performance”. In this talk (slides), Hidayat began with describing composable tools, “Write something once that does its job very well”, and then presents his favorite JavaScript tools while referencing some topics and tips covered from many of his blog posts.

Some of the JavaScript-related tools mentioned:

  • Phantom.js – A headless WebKit scriptable with a JavaScript API
  • Esprima – A high performance, standard-compliant ECMAScript parser
  • MetaJS – A CPS Javascript metacircular interpreter that visualizes script execution
  • JSComplexity – A complexity analysis for JavaScript projects
  • Plato – A code complexity visualization tool
  • Defs.js – An ES6 const and let transpiler to ES3.
  • Istanbul – A code coverage tool for JavaScript

Hidayat closed with the following bits of advice:

  • “Build composable tools”
  • Automate any tedious parts of code review”
  • “Incorporate code quality metrics into dashboards”

Nicholas Zakas – Box

Nicholas Zakas
(Nicholas Zakas | photo credit)

Velocity’s Web Performance track concluded with a talk (slides) from Nicholas Zakas on the over-reliance of JavaScript. In “Enough with the JavaScript already”, his point was that as JavaScript developers, we have the tendency to try to do too many things in JavaScript. As an example of this, Zakas cited the plethora of client-MVW frameworks (Model-View-Whatever) and client-side rendering as JavaScript-gone-too-far. This is something Twitter and airbnb have realized, which should serve as a reminder to take a step back and rethink things before you try to outsmart a web browser.

As an example of proper and intelligent use of JavaScript, Zakas pointed to Alex Sexton’s wonderful Deploying JavaScript Applications blog post which mentions the idea of listening for mouse movements to trigger loading JS. Consider the fact that you have two types of scripts you typically run on a page, 1) Render/Functionality-critical scripts, and 2) Supplementary functionality scripts. If a script isn’t required for primary functionality of your page, you should defer loading it.

Speaking of when and where to execute your JavaScript, here’s his categorization of the four suggested locations to place your Javascript:

The 4 JavaScript Load Times

Zakas’ talk concluded with some observations about building and using libraries, arguing that it’s an economy of scale rule, meaning the cost per component decreases the more components you use. So for example, if you are using YUI for only node, that’s really expensive, and maybe not the best investment. But, if you begin using other YUI components as well, the more you use, the cheaper your investment becomes.

The takeaway here is that bytes are costly in bandwidth, performance, and maintenance, so scrutinize your decisions when selecting libraries to use. Don’t just blindly invent or throw a new library at the problem.

You can find some insightful discussion on these slides over on Hacker News.


Overall Takeaways

Here are some common themes observed at Velocity 2013:

  • Tracking browser metrics in CI is becoming popular, both due to availability of Navigation Timing APIs and greater awareness of paint timings. As Paul Hammond said in his Ignite Velocity talk, “If it moves, track it.”
  • Your software will make mistakes, but it’s difficult to predict what and where. So, focus on making resilient systems that help you detect problems faster to mitigate the damage.
  • The point of improving performance is to improve the experience of the end user. They actually don’t care that things are metrically faster, they just like the feeling they get from their perception that things are faster.
  • Alex Sexton’s excellent “Deploying JavaScript Applications” blog post, and his follow-up “Front-End Ops” seemed to be commonly cited among Velocity talks.
  • And finally, when you think you are done with performance, you probably aren’t.

As a two-time attendee of Velocity, I’m comfortable saying that it continues to be one of the most educational and inspiring events out there today. Tim O’Reilly stated in his 2011 keynote, “You might think you are just helping to run some random site, but you are engaged in an exploration that is central to the future of humanity”, and after learning about all the interesting problems being tackled by Velocitians, I completely agree. So, cheers to the Velocity organizers, presenters, and community, for building a better, faster, stronger Web!

P.S. You can find all my session notes here. Also, if you are an O’Reilly Safari subscriber, keep an eye out for videos of the 2013 talks. In the meantime, you can view previous years 2011 and 2012, as well as finding select videos from 2013 on YouTube.


16 Jul 17:20

Le design thinking, un nouvel avantage compétitif ?

by L'Info Autrement

On pourrait penser que c’est une mode, mais le design thinking est bel et bien né dans...


16 Jul 10:25

50+ inspiring animated gifs

by Paddi MacDonnell

thumbnailOne of the biggest trends right now is animation. It’s smaller than video, more engaging than still images, and the range of talent worldwide seems to grow daily.

Just a couple of years ago, web animation meant Flash, and when Flash lost credibility animation fell alongside it. That’s no longer the case, now when we talk about animation, more often than not we mean animated gifs. And finally, animation is making a comeback.

Flash animations were undoubtedly more powerful, but perversely, it’s the necessary simplicity of animated gifs that are driving their popularity. Low-fi, small in size and limited in length, animated gif designers are being forced to innovate by the restrictions of the medium.

One of my favorite styles are animations that grow from nothing, in a way that would be physically impossible, inspired perhaps by the opening credits of Game of Thrones. But that’s not all there is, traditional looped gifs, animated logos and abstract motion graphics are all en vogue.

Here we’ve collected some of the best examples to be found on Dribbble.

50+ inspiring animated gifs

bipolar-ball

cars

superbowl-xlvi2

animated gif

dribble_gif

animated gif

animated gif

animated gif

50+ inspiring animated gifs

animated gif

superbutton

honeybee

digital-icon-pack-animated-promo-3

50+ inspiring animated gifs

50+ inspiring animated gifs

animated gif

bike

save

molly_and_ray

metaloader

animated gif

50+ inspiring animated gifs

saving-animation

animated gif

animated gif

animated gif

time-and-money

animated gif

taking-other-people_s-land

50+ inspiring animated gifs

echo

animated gif

daily-fix

50+ inspiring animated gifs

bicycle-gif

animated gif

bipolar-balls

anti_dribbble

sweet-crude-logo-animated

animated gif

50+ inspiring animated gifs

cameras

tipi

collection

dribbble

animated gif

the-eyes

50+ inspiring animated gifs

animated gif

4

mc-delivery

 

 

Which of these animations is your favorite? Do animated gifs offer a realistic alternative to static images? Let us know in the comments.



eBook: SEO in Practice – only $5.95!
50+ inspiring animated gifs


Source
    


15 Jul 19:49

La mise à jour vers Windows 8 Professionel à 39,90 €

by Vincent Alzieu
Jean-Philippe Encausse

je me demande si il faut re payer pour Windows 8.1 ...

Amazon et Darty proposent la mise à jour vers Windows 8 Pro à 39,90 €. Chez Darty, le bon prix s'affiche d'emblée. Chez Amazon, la réduction s'applique sur la page récapitulative de la commande. Ce prix est encore plus bas que celui promotionnel pratiqué à la sortie de l'OS (fin 2012) : 50 € la version DVD. Et 30 €... image ?>
15 Jul 11:40

J’attaque la saison 2 de Suits – Avocats sur mesure

by Christian
Jean-Philippe Encausse

Une série géniale !

Je suis tombé complètement par hasard sur la première saison de Suits sur la RTS (télévision suisse). Dès le premier épisode j’ai immédiatement croché. En effet, l’intrigue mélange avec succès monde du barreau et humour. De plus, les acteurs sont charismatiques et les différentes affaires traitées sont assez intéressantes.
Suits Saison 2
Bref, si vous êtes en manque de série TV avec des avocats, je vous invite à découvrir au plus vite Suits. Pour ma part, j’attaque la seconde saison que je viens de recevoir.

Un petit synopsis: Avocat très ambitieux d’une grosse firme de Manhattan, Harvey Specter a besoin de quelqu’un pour l’épauler. Son choix se porte sur Mike Ross, un jeune homme très brillant mais sans diplôme, doté d’un talent certain et d’une mémoire photographique très précieuse. Ensemble, ils forment une équipe gagnante, prête à relever tous les défis. Mike devra cependant user de toutes les ruses pour maintenir sa place sans que personne ne découvre qu’il n’a jamais passé l’examen du barreau (©Allociné).

Suits Saison 2 Suits Saison 2 Suits Saison 2 Suits Saison 2
14 Jul 20:11

Epic Sci-Fi Door Decals

by Geeks are Sexy

decals

I think I’m going to get that lab door decal and install it over the door to my office.

lab-door

Pre-order one… or many over at Gadgetsandgear.com.

12 Jul 07:48

La DGSE a le « droit » d’espionner ton Wi-Fi, ton GSM et ton GPS aussi

by bugbrother

La Direction générale de la sécurité extérieure (DGSE, les services spéciaux français) ne serait pas, en l'état, en mesure de collecter "systématiquement les signaux électromagnétiques émis par les ordinateurs ou les téléphones en France".

Une chose est de stocker "tous les mots de passe" qu'elle a pu intercepter sur les "réseaux grand public", comme je l'avais écrit en 2010 (voir Frenchelon: la DGSE est en « 1ère division »), une autre est de pouvoir espionner "la totalité de nos communications", en France, comme l'écrivait Le Monde, la semaine passée, avec ses "Révélations sur le Big Brother français".

A contrario, et comme l'écrivait Le Monde mi-juin, la DGSE est bien "au cœur d'un programme de surveillance d'Internet" lui permettant de surveiller "le flux du trafic Internet entre la France et l'étranger en dehors de tout cadre légal"...

Le monde a bien changé depuis les plombiers de la DST

S'il est certes techniquement possible d'espionner tout type de réseau de communication, le maillage décentralisé du réseau Internet, en France, fait qu'il est par contre improbable que la DGSE ait pu concrètement, financièrement et structurellement, placer l'intégralité de nos télécommunications sous surveillance afin de collecter et stocker nos méta-données (qui communique avec qui, quand, pendant combien de temps, d'où).

Contrairement à des pays comme la Libye, où l'Internet était centralisé -ce qui a permis à l'entreprise française Amesys d'y installer un système de surveillance généralisée des télécommunications (voir Barbouzeries au Pays de « Candy »)-, l’historique du développement des télécommunications en France a débouché sur une infrastructure décentralisée.

Si la DGSE voulait placer tout l'Internet sous surveillance, elle ne pourrait pas se contenter de demander à Orange, Bouygues Télécom, SFR ou Free de dupliquer le trafic Internet. D'une part parce qu'il existe de nombreux autres FAIs, particulièrement étrangers (les opérateurs européens, américains, voir indiens sont présents en France), d'autre part parce que ça ne suffirait pas : l'Internet n'est pas une série de tuyaux contrôlés par quelques gros "telcos", c'est un peu plus compliqué.

Espionner les FAI ? Une fausse bonne idée

Comme l'avait très bien rappelé Benjamin Bayart dans sa conférence "Internet libre ou minitel 2.0", "sur Internet on a mis l'intelligence en périphérie du réseau" :

« Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. »

Illustrations : quand un abonné Orange regarde DailyMotion (filiale d’Orange), le trafic peut ne pas sortir du réseau de France Télécom, ou même sortir du réseau d’Orange et y re-rentrer de nouveau au gré des règles de routage. Plus généralement, en matière d'interconnexion entre opérateurs (Peering), certains prestataires français préfèrent passer par des points d'échange situés à l'étranger, afin de payer moins cher... ce qui fait qu'un fichier envoyé par abonné Free à un internaute Orange passera peut-être par Londres ou Francfort, ou encore la Belgique s'ils utilisent Google, sans que jamais ni Free, ni Orange, ni personne à Londres, Francfort ou Bruxelles ne sache exactement ce qu'ils ont échangé.

Le problème se complique avec les services types web 2.0 : quand un internaute se connecte à l'un des services proposés par Google, son FAI ne sait pas lequel, ni ce qu'il cherche à y faire (consulter son gmail, faire une recherche, travailler sur un document stocké dans le "cloud" de Google, etc.), car le trafic est chiffré (ssl), et que la réponse à la requête de l'abonné sera routée par les serveurs de Google, et non par le FAI.

Rajoutez-y le fait que nombreux sont les internautes qui passent par Google pour consulter tel ou tel site, plutôt que de rentrer son URL dans son navigateur, et vous commencez à prendre la mesure de la complexité du routage de l'Internet, et du fait qu'on ne peut pas installer de "Big Brother" au coeur des FAI.

L'an passé, le sénateur Jean-Marie Bockel voulait interdire la vente de routeurs de coeur de réseau chinois en Europe, au motif qu'ils pourraient permettre à la Chine de nous espionner. Comme le rappelait alors L'Express, ces routeurs, utilisés par les opérateurs de télécommunications pour gérer les flux de communications, peuvent en effet "intercepter, analyser, exfiltrer, modifier, voire détruire toutes les informations" qu'ils voient transiter.

Une hypothèse récemment battue en brèche par Stéphane Bortzmeyer, dans un article intitulé Un routeur de cœur de réseau peut-il espionner le trafic ?. Techniquement, c'est possible, et il existe effectivement des routeurs espions. Mais ils ne peuvent pas pour autant analyser tout le trafic en temps réel; et s'ils faisaient remonter le trafic aux autorités, ça se verrait, les opérateurs s'en apercevraient, des ingénieurs auraient protesté ou démissionné, et l'information aurait fuité bien avant les "révélations" du Monde.

Comment les internautes sont mis sur écoute

Pour Kave Salamatian, professeur d’informatique et de réseaux, et spécialiste de la géographie de l’Internet, cette histoire de "PRISM" français relève d'une "tentative de désinformation, de manœuvre de roulement de muscles, ce qui est habituel dans le monde du renseignement : plus c'est gros, plus ça passe" :

« L'architecture du réseau téléphonique et internet en France est très différente de celle des États-Unis. C'est une décision prise dans les années 40-50 : les USA sont allés vers une architecture avec des centraux téléphoniques très gros, qui concentrent le trafic, et des lignes très longues vers l’utilisateur.

En Europe, on a fait un maillage dense de centraux téléphoniques de plus petites tailles, avec des lignes beaucoup plus courtes vers l’utilisateur : on est toujours à moins de 4-5 kilomètres d’un DSLAM, l'architecture est beaucoup plus dense. »

Et c'est précisément sur ces DSLAM, qui récupèrent le trafic transitant sur les lignes téléphoniques afin de router les données vers les gros tuyaux des FAI, au plus près des abonnés, que s'effectuent les écoutes Internet, comme me l'a expliqué, sous couvert d'anonymat, le responsable d'un gros FAI :

« Le réseau français est fait de sorte que pour l’intercepter il faut aller au plus près de l’abonné, source ou destinataire, sachant que les deux canaux de communications sont disjoints : chaque acteur ne maîtrise que ce qui sort du réseau. La voie retour, quand c’est Google qui envoie l’info, c’est Google qui décide par quels chemins le flux doit revenir à l'abonné, et au final c'est le DSLAM qui réassemble les flux depuis et vers l'abonné.

Quand on reçoit un ordre d’un tiers de confiance (Justice ou Invalides -qui gère les interceptions de sécurité pour le compte de Matignon), on duplique le flux, qui est renvoyé via des liaisons dédiées et chiffrées; et on s’est débrouillé pour que la fonctionnalité de duplication soit limitée à quelques abonnés par équipement, et que seules deux personnes puissent la débloquer. »

Non content d'avoir été conçu pour ne permettre que quelques placements sur écoute en simultané, par DSLAM, le dispositif ne peut pas être activé par le FAI seul, pas plus qu'à la seule initiative du ministère, mais seulement lorsque les deux s'accordent pour activer la mise sur écoute :

« Si le logiciel est hacké ou évolue vers des fonctionnalités non documentées, le hardware, chez nous, va le bloquer. Et tout est tracé. Et si la DGSE vient nous voir, on leur répond qu’on ne discute qu’avec la PNIJ (la Plateforme nationale d'interception judiciaire de la Justice) ou le GIC (le Groupement interministériel de contrôle, dépendant du Premier Ministre). »

Pour faire du massif, il faudrait pirater les "box"

Si la DGSE avait voulu placer des bornes d'écoute clandestine afin de pouvoir surveiller l'intégralité du trafic, elle aurait donc du installer des portes dérobées dans tous les DSLAM, et plusieurs autres points d'interconnexion, sans que cela se voit.

Or, en France, on dénombre près de 16 000 répartiteurs téléphoniques, et quelques 40 000 DSLAM.

Save Kalamatian estime que, pour faire un point de collecte sur un lien à 10GB/s, avec de la reconnaissance par mot-clef, il faudrait investir de 100 à 150 000 € par porte dérobée. Or, à raison de 20 000 portes dérobées, il faudrait investir de 200 à 300 millions € (en hypothèse basse), voire 750 M€ si on voulait espionner tous les DSLAMs (sans la gestion, ni la maintenance, ni la bande passante pour faire remonter le trafic espionné au siège de la DGSE, boulevard Mortier).

"Pour faire de la surveillance massive, il faudrait aller au niveau de la Box" qui permet aux abonnés de se connecter, explique Stéphane Bortzmeyer, et y installer un logiciel espion.

Mettons d'emblée de côté l'aspect particulièrement improbable d'une telle opération, dans la mesure où les employés des FAI ou des fabricants de ces Box auraient forcément détecté la manip', sans parler des bidouilleurs qui auraient remarqué le trafic sortant de leur Box, et qu'il y aurait donc forcément eu des fuites dans les médias si la DGSE avait voulu tenter ce coup-là.

On dénombre près de 13 millions d'abonnés, en France. A raison de 40€ par logiciel espion (ramené à l'ensemble du parc), estime le responsable du FAI, l'investissement représenterait donc plus de 500M€, à quoi il faudrait rajouter les frais de bande passante.

Or, le budget annuel de la DGSE est de l'ordre de 600M€.

A quoi il faudrait aussi rajouter la surveillance des méta-données issues de la téléphonie fixe et mobile. Là, pour le coup, le système est plus centralisé, puisque les méta-données des statistiques d'appel (ou call data record, CDR) sont générées par les opérateurs, qui les conservent pour la facturation, et la détection d'incident.

Suite à la panne d'Orange, en juillet 2012, une inspection de sécurité avait été lancée, pour vérifier l'infrastructure des opérateurs de téléphonie mobile. Les ingénieurs de l'ANSSI -en charge de la cyberdéfense- tout comme ceux des opérateurs n'auraient alors pas manqué d'identifier d'éventuelles installations espion de la DGSE, ce qui aurait donc dû être dénoncé à la Justice, et n'aurait pas manqué de sortir dans la presse.

Avec des "si", on mettrait Internet en bouteille

Entre 5 et 10% du trafic Internet français transite par l'association France-IX, le plus important des points d'échange internet français, qui permettent aux différents FAI d'échanger du trafic grâce à des accords de "peering". Raphaël Maunier, son président, est formel :

« On ne m'a jamais demandé d'intercepter du trafic. Sur France-IX, il n'y a pas d'écoute, c'est hors de question, je démissionnerais direct, et j'en parlerais, c'est anticonstitutionnel.

Si on voulait forcer Free, Orange Numéricable, Bouygues ou SFR à intercepter, ça coûterait de l'argent, ça se verrait, et la plupart des opérateurs que je connais refuseraient : intercepter sur le coeur de réseau, ça ne marcherait pas. »

"Intercepter les données sur le Net sans que ça se sache ? C'est délicat, et je ne vois pas comment techniquement ce serait possible", renchérit Pierre-Yves Maunier, son frère, architecte Réseau chez Iguane Solutions, qui héberge physiquement le "cloud" de nombreux services web : "si on voulait tapper les DSLAMs, les opérateurs le sauraient; écouter tout en temps réel, de tous les opérateurs, c'est faisable, mais demanderait des moyens colossaux, tant pour les opérateurs que pour le gouvernement."

« Je suis intimement convaincu que c'est difficilement faisable; mais je ne sais pas tout. »

Les professionnels des réseaux que j'ai contacté sont unanimes : techniquement, tout est possible. Mais si la DGSE avait vraiment voulu mettre le Net et la téléphonie sous surveillance constante et généralisée, le réseau est tellement décentralisé, et implique tellement d'opérateurs divers et variés qu'ils s'en seraient forcément aperçus et ce, bien avant les révélations d'Edward Snowden.

Il est impossible, en l'état, d'espionner tout le trafic de tous les abonnés sans que les ingénieurs et techniciens en charge du bon fonctionnement de ces réseaux ne s'en aperçoivent, ou n'en soient tenus informés.

Pourquoi aucun d'entre-eux n'a réagi, ne serait-ce que sur la mailing-liste du FRench Network Operators Group (FRnOG), qui "rassemble des personnes intéressées par les domaines de la sécurité, la recherche et le fonctionnement d'Internet en France" (et qui discutait récemment de cette possibilité d'espionner un routeur de coeur de réseau) ? Parce qu'ils sont habitués... à entendre "beaucoup de conneries de la part des journalistes" :

« On est tellement habitué à ce que les journalistes disent n'importe quoi qu'on ne réagit même plus. »

La DGSE a le "droit" d'espionner ton Wi-Fi, ton GSM et ton GPS aussi

Pour autant, cela ne veut pas dire que la DGSE n'espionne pas tout ou partie des télécommunications qui transitent par satellite. Comme le rappelle Vincent Jauvert, un des journalistes qui, en avril 2001, fut l'un des premiers à évoquer le système "Frenchelon" d'espionnage des télécommunications de la DGSE (voir Le DGSE écoute le monde (et les Français) depuis plus de trente ans), la loi de 1991 relative au secret des correspondances émises par la voie des communications électroniques, censée encadrer les interceptions de communications électroniques et désormais intégrée au Code de la sécurité intérieure, excluait le spectre hertzien de toute forme de contrôle :

« Cette dérogation a été exigée par les plus hautes autorités de l’Etat, confie un ancien conseiller du ministre de la Défense de l’époque, Pierre Joxe. Pourquoi ? Souvenez-vous, à cette époque, la DGSE lançait un vaste plan de modernisation de ses « grandes oreilles ». Il était hors de question de le compromettre.

Un ancien de l’Elysée dit: « Nous voulions laisser les coudées franches au service secret, ne pas l’enfermer dans son quota d’écoutes autorisées. »

Accessoirement, les ondes hertziennes servent aussi en matière de radio-identification (RFiD), de GPS, de GSM et de Wi-Fi... technologies qui, en 1991, n'étaient pas utilisées par le grand public, contrairement à aujourd'hui.

Reste aussi la question des câbles de fibres optiques sous-marins, qui ne relèvent pas du spectre hertzien, et qui ne sauraient donc être légalement espionnables par la DGSE. Et il serait vraiment très intéressant de savoir ce que la DGSE espionne, et ce qu'elle fait pour ne pas espionner les Français.

Dans son article, Vincent Jauvert écrivait que "nos communications avec l’étranger ou les Dom-Tom peuvent être interceptées, recopiées et diffusées par la DGSE, sans qu’aucune commission de contrôle ait son mot à dire. Aucune ! Une situation unique en Occident." :

« Tous les pays démocratiques qui se sont dotés de services d’écoute «satellitaire» ont mis en place des garde-fous, des lois et des instances de contrôle afin de protéger leurs citoyens contre la curiosité de ces «grandes oreilles». Tous, l’Allemagne et les Etats-Unis en tête. Pas la France. »

Son article date de 2001. Depuis, rien n'a changé. Et la DGSE a continué à faire monter en puissance son système d'interception des télécommunications.

Big Brother est dans vos têtes, pas sur l'Internet

Le "Bug Facebook" avait révélé, l'an passé, à quel point la perte de contrôle de leur vie privée pouvait effrayer les internautes, mais également à quel point ils pouvaient être "crédules" (il s'agissait d'une rumeur, cf Facebook et le « paradoxe de la vie privée »).

Le fait qu'Eric Filiol, un ancien militaire, chercheur en cryptologie et virologie -qui aurait travaillé à la DGSE- ait été le seul à qualifier de "fantaisiste" le Big Brother de la DGSE tel que décrit par Le Monde est tout aussi instructif, et plutôt effrayant.

La banalisation des technologies de surveillance, la montée en puissance de cette société de surveillance, la primauté faite au renseignement et aux technologies sécuritaires -au détriment de nos libertés- sont telles qu'un barbouze s'est fait passer pour une gorge profonde afin de faire croire aux lecteurs du Monde que la DGSE était aussi puissante que la NSA...

Le budget de la NSA est classifié, mais on estime qu'elle reçoit de 10 à 15 milliards de dollars, par an, soit 25 fois plus que la DGSE. La NSA emploierait 40 000 personnes, dont 32 000 pour le SIGINT (pour SIGnals INTelligence, l'accronyme anglais désignant le renseignement d'origine électromagnétique), alors que la DGSE n'en emploie que 4750, dont 1100 dans sa direction technique (chargée de "rechercher et d’exploiter les renseignements d’origine technique").

Et personne n'a moufté, à l'exception de Matignon, et de Jean-Jacques Urvoas, président de la Commission des lois de l'Assemblée nationale et spécialiste du renseignement, qui ont rappelé que la DGSE n'espionnaient pas "tous" les Français, parce qu'elle était encadrée par la loi de 1991 (sachant, par ailleurs, que la DGSE a aussi le "droit" de violer les lois, à l'étranger).

Il suffisait pourtant de contacter les professionnels des réseaux, ceux qui nous permettent de communiquer sur Internet, pour comprendre qu'a priori, le système décrit par Le Monde ne peut pas exister, en l'état, en France.

La DGSE espionne-t-elle les Français depuis l'étranger ?

A contrario, rien n'interdit la DGSE d'écouter les Français depuis l'étranger. Mi-juin, Le Monde écrivait que la DGSE "examine, chaque jour, le flux du trafic Internet entre la France et l'étranger en dehors de tout cadre légal" :

« La justification de ces interceptions est avant tout liée à la lutte antiterroriste sur le sol français. De facto, au regard de l'absence d'encadrement légal strict de ces pratiques, l'espionnage des échanges Internet peut porter sur tous les sujets.

Interrogée par Le Monde, la DGSE s'est refusée à tout commentaire sur ces éléments couverts par le secret-défense. De plus, les autorités françaises arguent que les centres d'hébergement des sites sont, pour la plupart, basés à l'étranger, ce qui exonère la DGSE de répondre à la loi française. »

Le magazine spécialisé Intelligence Online révélait récemment que le nouveau datacenter de la DGSE, construit dans un ancien bunker allemand de 100 mètres de long sur 10 de large, situé près de sa station d'interception des télécommunications satellitaires des Alluets, dans les Yvelines, (voir Frenchelon: la carte des stations espion du renseignement français), stockait "toutes les communications électroniques passivement interceptées par les stations du service à l'étranger, notamment à Djibouti, proche de plusieurs dorsales télécoms" (ou Internet Backbone), laissant entendre que la DGSE pourrait aussi écouter les câbles sous-marins dans lesquels transitent, par fibres optiques, une partie importante du trafic Internet international.

En février dernier, Fleur Pellerin qualifiait le savoir-faire d'Alcatel Submarine Networks (ASN), qui couvre la production, l'installation et la maintenance des câbles sous-marins, d'"unique", tout en déclarant qu'ASN ne faisait pas que transporter des paquets de données, mais également de la "cybersurveillance" :

« C'est une activité stratégique pour connecter l'Outre-Mer et tout le continent africain en haut débit. Il y a aussi un enjeu lié à la cybersurveillance et la sécurité du territoire. »

Le site Reflets.info évoque depuis des mois une thèse abracadabrantesque, relayée par l'ONG Survie, selon laquelle le renseignement français aurait externalisé une partie de son système de surveillance des télécommunications dans des pays où elle aurait contribué à installer des systèmes Eagle de surveillance massive de l'Internet, comme elle l'avait fait en Libye (voir Barbouzeries au Pays de « Candy »).

S'il n'existe donc pas, a priori, de "Big Brother" en France, il a bien des petits frères, installés à l'étranger de sorte d'"exonérer la DGSE de répondre à la loi française", tout en lui permettant d'espionner le trafic Internet.

En 2010, Bernard Barbier, directeur technique de la DGSE, avait ainsi expliqué que les réseaux grand public était la "cible" principale, et qu'elle stockait "tous les mots de passe" (voir Frenchelon: la DGSE est en « 1ère division »).

L'ancien directeur de la DGSE, le préfet Érard Corbin de Mangoux, en parlait lui aussi ouvertement, en février 2013, au Parlement :

« À la suite des préconisations du Livre blanc de 2008, nous avons pu développer un important dispositif d’interception des flux Internet. »

Marc Trévidic, juge d'instruction au pôle antiterroriste du TGI de Paris, expliquait au Sénat l'an passé que « les gens qu’on arrête, dans la plupart de nos dossiers, c’est grâce à Internet », des propos réitérés en février dernier à l'Assemblée :

« La totalité des affaires d’associations de malfaiteurs terroristes comporte des preuves acquises sur internet. Au surplus, parmi ces affaires, 80 % d’entre elles sont même exclusivement déferrées devant la Justice grâce à ce type de preuves. De fait, la surveillance d’internet représente pour les services de renseignement un enjeu majeur. »

Le problème, c'est que la DGSE est moins contrôlée que la NSA, et qu'on a plus d'informations sur la NSA que sur l'"infrastructure de mutualisation" (qui centralise les données espionnées) de la DGSE...

NB : et si vous pensez que vous n'avez rien à vous reprocher, donc rien à cacher, et que donc vous ne risquez pas d'être espionné, lisez donc ce pourquoi la NSA espionne aussi votre papa (#oupas) et, pour vous protéger, Comment (ne pas) être (cyber)espionné, ainsi que les nombreux articles de Reflets.info, particulièrement en pointe sur ces questions.

PS : @H_Miser me fait remarquer que je pourrais induire les lecteurs en erreur : un GPS n'émet rien, il ne fait que recevoir des ondes émises par des satellites, et qui sont donc ... "publiques", on ne peut pas vous géolocaliser à distance avec votre GPS de voiture ou de smartphone.

Voir aussi :
Lettre ouverte à ceux qui n'ont rien à cacher
Frenchelon: la DGSE est en « 1ère division »
Du droit à violer la vie privée des internautes au foyer
Frenchelon: la carte des stations espion du renseignement français
Amesys: les documents qui impliquent Ziad Takieddine et Philippe Vannier, le PDG de Bull

10 Jul 15:25

Amazon Drops Price Of EC2 Dedicated Instances By Up To 80%

by Frederic Lardinois
aws-logo-640

Amazon today announced that it is dropping the prices of dedicated instances on its EC2 cloud computing platform by up to 80%. Dedicated per region fees, which are charged on top of the regular EC2 fees, will now set developers back $2 per hour instead of $10, for example. That’s a large price cut, even by Amazon’s standards – and the company has a long history of lowering the prices of its cloud computing services. Today’s price reduction, Amazon says, is an example of its “tradition of exploring ways to reduce costs and passing on the savings to our customers.” The new prices will be take effect on July 1 and will apply to all supported instance types and AWS regions.

Dedicated instances are different from regular EC2 instances, as they run on single-tenant hardware that is dedicated to just a single customer. These instances, the company says, “are ideal for workloads where corporate policies or industry regulations require that your EC2 instances be isolated from instances that belong to other customers at the host hardware level.”

Besides bringing down the region fee, Amazon is also dropping the price of dedicated on-demand instances – that is, instances that are paid by the hour without long-term contracts – by up to 37% (down from $0.840 to $0.528 for m1.xlarge instances in the US East region, for example). Dedicated reserved instances with long-term commitments are also now significantly cheaper as Amazon reduced the price of the upfront fees for this service by 57%.

Today’s announcement followed a somewhat smaller price drop for regular EC2 instances in April. Back then, Amazon dropped prices for Windows On-Demand instances by up to 26%.


08 Jul 19:55

New York Aerial Footage

by Baptiste

Le réalisateur américain Jason Hawkes nous propose de découvrir de magnifiques images de New York, plus précisément de Midtown, le quartier d’affaires de l’île de Manhattan vu depuis le ciel. Une minute et dix secondes d’images aériennes absolument magnifiques. Plus d’images dans la suite.

New York Aerial Footage3 New York Aerial Footage2 New York Aerial Footage New York Aerial Footage4
07 Jul 22:06

A quoi ressemble Star Wars sans effets spéciaux ?

by YPz0ps
Avis aux fans de Star Wars ! Une groupe d’adeptes s’est amusé à reproduire un épisode culte de la saga. Une belle reproduction « en carton », au sens propre du terme… C’est sur la chaine Youtube « Homemade Movies … Continuer la lecture →
07 Jul 19:06

Pooleaf: Grass Leaf Pen

These grass leaf-shaped pens, called the Pooleaf, available in 3 different shade, give you the..(Read...)

05 Jul 12:47

Linkedin, the serious network

by Benoit Zante
04 Jul 18:31

NSA Spying Risks Undermining Trust In U.S. Cloud Computing Businesses, Warns Kroes

by Natasha Lomas
5160804657_5f1108d447

The NSA spying scandal risks undermining trust in U.S. cloud computing businesses, the European Commission’s vice-president, Neelie Kroes, has warned in a speech today. Kroes also reiterated calls for “clarity and transparency” from the U.S. regarding the scope and nature of its surveillance and access to data on individuals and businesses living and conducting business in Europe in order to avoid a knock-on effect on cloud businesses.

Loss of Europeans’ trust could result in “multi-billion euro consequences” for U.S. cloud providers, she added.

Kroes was speaking during a press conference held in Estonia, following a meeting of the EC’s European Cloud Partnership Steering Board held to agree EU-wide specifications for cloud procurement.

In her speech, part of which follows below, she argued that cloud computing businesses are at particular at risk of fallout from a wide-reaching U.S. government surveillance program because they rely on their customers’ trust to function — trust that the data entrusted to them is stored securely.

Kroes said:

If businesses or governments think they might be spied on, they will have less reason to trust the cloud, and it will be cloud providers who ultimately miss out.

Why would you pay someone else to hold your commercial or other secrets, if you suspect or know they are being shared against your wishes? Front or back door – it doesn’t matter – any smart person doesn’t want the information shared at all. Customers will act rationally, and providers will miss out on a great opportunity.

In this case it is often American providers that will miss out, because they are often the leaders in cloud services. Which brings me to another interesting consequence of recent allegations. Particularly allegations about US government surveillance concerning European partners and allies.

If European cloud customers cannot trust the United States government or their assurances, then maybe they won’t trust US cloud providers either. That is my guess. And if I am right then there are multi-billion euro consequences for American companies.

If I were an American cloud provider, I would be quite frustrated with my government right now. I do not have an agenda here: I am committed to open markets, to liberal values, and the opportunities of new digital innovations. Yet even I am thinking twice about whether there is such a thing as a level playing field when it comes to the cloud.

She added that in the context of a mass surveillance program, such as is apparently being conducted by the NSA security agency, using U.S. companies as its data-harvesting tentacles, being able to guarantee privacy can be viewed as a competitive advantage — which, she suggested, is food for thought for non-U.S. cloud startups and businesses.

“Companies focused on privacy need to start coming forward into the light and help them do that. That would be a smart company indeed. And 2013 is the year. That includes European companies who should take advantage of interest to provide services with better privacy protection,” she said.

While Kroes conceded there are “some cases” where it may be legitimate for authorities to “access, to some degree, information held online” — citing child protection and terrorism as “good examples” — she stressed such access must be based on “transparent rule of law”, and “is the exception to the rule”. Routine surveillance by governments on digital data turns that on its head by making spying the rule — and thereby risks tainting the U.S. businesses that are forced to comply and spy on routine day-to-day business.

“Concerns about cloud security can easily push European policy makers into putting security guarantees ahead of open markets; with consequences for American companies,” she added.

“The cloud has a lot of potential. But potential doesn’t count for much in an atmosphere of distrust. European cloud users and, American cloud providers and policy makers need to think carefully about that.”

However, Kroes made her remarks on the same day it emerged that France has its own PRISM-esque data-gathering program. While the U.K. has previously been accused of indulging in similarly systematic data collection via its GCHQ spy agency. So the potential pool of European cloud companies that could benefit from any NSA-fuelled U.S. backlash might not be as large as Kroes suggests.

[Image by DJ-Dwayne via Flickr]


04 Jul 07:29

From GI Joe to Jem, writer Christy Marx builds the worlds we love

by Jeff Blagdon
03 Jul 18:05

Photos du stock d’Amazon.co.uk

by Christian

Le photographe Ben Roberts est allé immortaliser les locaux où Amazon Angleterre stocke tous ses articles. De la taille de neuf terrains de football, le hangar est optimisé au maximum pour réduire les temps de préparations des commandes.
locauxamazonuk1
Assez impressionnant comme bâtiment !
locauxamazonuk2
» Via benrobertsphotography

03 Jul 08:09

Second Life fête ses 10 ans

by Frédéric Cavazza

Je ne compte plus le nombre de personnes qui me disent “quoi, ça existe toujours ?” quand j’évoque Second Life. Aussi surprenant que cela puisse vous paraître, l’univers virtuel de Second Life est toujours disponible et il n’a jamais été aussi riche. Entendons-nous bien : il s’agit d’un produit de niche, donc rien à voir avec Facebook, qui a sû fidéliser un noyau dur d’habitués, au même titre que Friendster ou SmallWorlds. Certes, la blogosphère parle beaucoup moins de SL qu’à la grande époque, mais ce n’est pas plus mal, car il y avait beaucoup de déchets.

Suite à la frénésie des années 2005-2006, l’éditeur a donc procédé à un grand ménage et essayé de développer la plateforme sur trois grands usages (éducation, collaboration et expression artistique). Après moult repositionnements, la clientèle d’entreprise a fui vers des outils de simulation et d’apprentissage virtuel ou des serious games. Les usages autour de l’éducation et de la création se sont déportés vers des plateformes plus simples d’accès comme Minecraft. Il reste aujourd’hui une communauté de 500.000 utilisateurs toujours actifs qui ont célébré dignement les 10 années d’existence de la plateforme : Ten Years of Second Life.

Infographie sur 10 ans de Second Life
Infographie sur 10 ans de Second Life

Cet anniversaire est l’occasion pour les observateurs de la première heure comme Wagner James Au de faire le point cette incroyable aventure : Second Life turns 10: what it did wrong, and why it may have its own second life. Quel que soit l’avis que vous pouvez avoir sur la plateforme actuelle, vous ne pouvez pas nier l’impact que cet environnement virtuel a eu sur l’évolution du web et des jeux en ligne (cf. Quel est l’héritage de Second Life ?). Les nombreuses évolutions technologiques de la plateforme ont par exemple permis de laisser libre court à l’inspiration de nombreux créateurs (The Top 10 Innovations That Have Shaped the Face of Second Life Fashion Over 10 Years).

Aujourd’hui, Second Life est une communauté virtuelle tout à fait respectable, qui dispose de l’audience et de la visibilité qu’elle aurait toujours dû avoir. On y croise donc des habitués, des passionnés, mais également de nombreuses personnes en situation de handicap ou souffrant de troubles sociocomportementaux, donc qui se sentent éloignés de la société, où l’on valorise avant tout l’apparence physique et le nombre de followers. On retrouve également dans SL des passionnés d’architecture qui reproduisent de façon très fidèle les monuments et hauts lieux du monde.

Le Mont-Saint-Michel dans Second Life
Le Mont-Saint-Michel dans Second Life

Second Life poursuit donc développement, et pourrait même connaître un second souffle avec la nouvelle vague d’interfaces gestuelles, comme le Leap, ou des équipements de réalité augmentée comme l’Oculus Rift. Je vous recommande à ce sujet l’interview de son CEO :

Donc non seulement Second Life a trouvé son point d’équilibre, mais son éditeur est en train d’opérer une diversification magistrale avec des projets tout à fait intéressants : Linden Lab se réinvente et profite du succès de Minecraft. Mais n’allez pas penser pour autant que les univers virtuels sont des concepts dépassés pour autant. Un certain nombre de projets sont ainsi en gestation (Surre.al Launches A Kickstarter Campaign To Fund A Cross-Device, 3D Virtual World) ou en finalisation comme Cloud Party ou High Fidelity. Vous noterez d’ailleurs que c’est Philip Rosedale, le fondateur de SL, qui est à l’origine de ce projet ambitieux à mi-chemin entre réel et virtuel.

Moralité : vous n’avez pas fini d’entendre parler des univers virtuels !

27 Jun 10:07

Print Cité de l’Architecture

by Baptiste.Bourgain

Havas Paris a demandé au collectif de photographes Illusion d’imaginer pour la « Cité de l’Architecture et du Patrimoine » une série de posters au style graphique épuré. Voici trois visuels en images de synthèse en 3D représentant une maison individuelle en bois, le Puck Building de New York et la cathédrale d’Amiens.

Print Cite de lArchitecture Print Cite de lArchitecture La Maison Individuelle Print Cite de lArchitecture Le Puck Building Print Cite de lArchitecture La Cathédrale D'amiens
25 Jun 12:33

Réaliser un électrocardiogramme à distance avec une caméra

by Korben

Des chercheurs du MIT ont mis au point une nouvelle technique permettant de mesurer le rythme cardiaque d'une personne à distance. Pas besoin d'électrode, une caméra et un ordinateur suffisent.

Alors comment ça fonctionne ? Et bien une première méthode se basait sur la couleur de la peau, qui en fonction des afflux de sang, changeait légèrement de couleur. Mais cette fois, ça va encore plus loin, puisque le rythme cardiaque peut être déterminé même si vous avez le visage masqué.

Pour réussir cet exploit, il suffit en réalité d'analyser les mouvements de la tête. Imperceptibles à l’œil nu, ces mouvements sont provoqués par les battements de notre cœur. Avec une caméra adéquate et un logiciel d'analyse, il est donc possible de réaliser un semblant électrocardiogramme proche de la réalité.

Cette technologie permettra dans le futur de réaliser des diagnostics à distance, de mesurer le rythme cardiaque de patients à la peau sensible comme les personnes âgées ou les nouveaux nés et bien sûr de faire passer au détecteur de mensonges des gens qui ne seront même pas au courant. Diamètre de la pupille, fréquence respiratoire et température corporelle sont des choses mesurables grâce à une caméra, donc je pense qu'un polygraphe à distance n'est plus de la science-fiction.

Source

21 Jun 07:16

A few tricks about public speaking and stage technology

by Chris Heilmann

Preparing for my upcoming workshops on public speaking for Mozillians, I just collected a few tips and tricks when being on stage and thought it might be fun to share them here.

Speaking at beyond tellerand

Stage attire/clothing

You will read a lot of things by clever people about “dressing better than the audience to give you a position of authority” and other – possibly true in some environments but so not in all – tips and tricks, but here are some things I found work very well for me:

  • Take off your lanyard/badge – it’ll reflect in the light of a stage and look odd on photos. Furthermore, if you use a lapel mic the lanyard will keep banging against it making clicking sounds or muffling your recording. I tend to put my name tag on my hip, threading the lanyard as a loop through the hoops of my trousers (I know, not possible when you wear a dress – just take the badge off before you get mic-ed up).
  • Provide a space to clip the mic to – this is why button down shirts and polos are better than T-Shirts. You can clip the mic on them without having to thread the cable through the whole shirt, out of the neck and back to the middle of your chest where it should be
  • Avoid stripes or loud patterns – they take away people’s attention to a degree but more importantly look terrible on photos and video as they cause a Moiré pattern effect. A great example of that is the Hugo Boss site, where it is impossible to see the texture of some shirts even in zoom because of this effect.
  • Dark is good – you will probably sweat on stage, either because of the heat from the lamps or because you are nervous. Dark shirts don’t show sweat stains. Remember Developers, Developers, Developers? The other way to deal with this is to wear a hoodie/jacket/blazer to cover up
  • Keep a bit of space – very tight fitting clothing might show your perfect figure but it can also be distracting or in the case of largely built men intimidating. This is not a date, you are here to deliver some great content.
  • Empty your pockets – you will need them to put the wireless transmitter of the lapel mic, it looks better to have no unsightly bulges and there won’t be the sound of clinking coins or keys in your pocket.
  • Leave your mobile behind – a call or message during your talk can really change the flow of your talk. Furthermore, the buzz of the phone trying to find a connection will be audible on your microphone. An exception to this is of course when you want to show stuff on the phone or bring it up as a surprise. Even then turn it into flight mode. Some people also use the phone and alarms to tell them when there is only 10 minutes left in your talk. That could cause issues with the audio, too, so leave that to a friend in the audience or ask the organisers to have a clock on stage.

Audio equipment/microphones

In some rooms you can make do without a microphone at all, but that is not always the case and you need to be a trained speaker to be loud but not detrimental to your vocal cords. Here are some things to be aware of when it comes to microphone technology:

  • Wireless lapel microphones – these are awesome and by far my favourite. As mentioned earlier, make sure they don’t end up next to anything that could cause click sounds, like buttons, tie-clips or your lanyard. Other than that, having those is the best thing you can get as they give you the most mobility on stage and are very simple to put on and take off. Try to get mic-ed up as soon as possible, as wiring them under your shirt is a bit intrusive and you might want to check your looks afterwards again (if that is important to you). Make sure they are muted when you are not on stage yet and that you turn them on just before. As my colleague Robert Nyman put it “You just don’t know what weird sounds your body is capable of until you get wired up”. Also you don’t want conversations you have with people before your talk be transmitted or recorded (well other than by the NSA)
  • Behind the ear microphones – these are a bit trickier, but yield very good sound results. Make sure that the mic doesn’t scratch against your beard stubbles, do not wear large ear-rings that might clink against them and take off your glasses, put the mic on and then put the glasses on top of them. I always found these microphones to be not really comfortable as they can cut into the back of your ear and limit your head movement a bit. Be aware of that.
  • Handheld microphones – these seem intrusive as one of your hands needs always to be close to your mouth and effectively covering your chest – thus not allowing for large, inviting open gestures with both arms – but they can be great. If you are not too comfortable a speaker yet, they are something to hold onto on stage and keep your hands from randomly moving around or shaking. Also, they just work without people having to fiddle with your hair, glasses or other attire.

As a strong rule of thumb – show love to the audio folk of the venue you speak at. They know their stuff and it is up to them for you to be audible by the audience. Follow their advice and make their life easier and you’ll give a great talk.

Available stage tech

Last but not least, here are some things on technology available for you on stage.

  • Bring your own power cables and adapters – not every venue or conference is equipped with all the things you need
  • Do not expect audio or video playback to be available – many a time I saw speakers building up to “a great video” just to be forced to show a blank rectangle or something without sound
  • You will be offline – just give up on the promise of connectivity on stage. A good speaker does not need it and there is nothing more discouraging than seeing someone who is there to inspire you about the awesomeness of cloud services struggling with the wireless crapping out
  • Plan for low resolution – 1024*768 at 60hz is normally possible, higher, not so much. So plan your demos and slides to be readable and usable on that resolution
  • Bring your own remote/clicker – these are awesome. First of all it means you will not be glued to and hidden behind your computer. Secondly you have something in your hand (see handheld microphone above for the benefits of that). Thirdly they have laser pointers which is great to get rid of stray cats that may enter the stage

Hope that was helpful, there is more to come :)

Photo by Andreas Dantz

19 Jun 19:29

JavaScript Source Transformation: Non-Destructive vs Regenerative

by Ariya Hidayat

Transforming JavaScript source code is essential to build various JavaScript tools, from minifier to transpiler. There are two different techniques for doing the transformation: non-destructive change of the original source or full regeneration from the syntax tree. They serve different purposes and tend to complement each other.

With both strategies, the original source needs to be parsed first. This can be easily carried out using a parser. After that, what happens to the produced syntax tree depends on the chosen approach, as summarized by the following diagram.

transform

In the case of non-destructive modification, we use the location information of the syntax nodes and/or tokens to find out what needs to be tweaked. An obvious example is when we want to change string literal quotes, from single quotes to double quotes (or the other way around). By locating every string literal, we know where the quotes are and thus we can just perform in-place replacement for the quotes (note that additional escaping might be necessary, since this is about strings).

Simple syntax transpilation is also another typical use case. For example, if we want to use ECMASCript 6 block scope feature today, we need to transform the code (e.g. using defs.js) to run in an ECMAScript 5 environment. This is about converting let to var (taken into account the proper scoping of course).

The advantage of non-destructive transformation is that we do not lose many important parts of the original source which do not affect the syntax and execution. For example, converting double quotes to single quotes means that the existing indentation, comments, etc are not touched at all. The modification tool only changes stuff it is interested in, it should ignore everything else.

If we are building a tool which does not care about the original source, the obviously it is easier to just regenerate the source from the syntax tree. For example, a minifier reproduces a new source which is semantically equivalent to the syntax tree, but without the extra white spaces. In many cases, the minifier may also shorten variables names, remove unused code, and many other tweaks to the syntax nodes. This way, the code becomes shorter (in term of bytes) but it does not affect its execution. Such a minifier will not care about the original indentation and comments.

For the purpose of code coverage analysis, instrumentation is the first necessary step. A coverage tool like Istanbul will sprinkle its instrumentation code surrounding the syntax nodes, this way it can keep track of all statements and branches hit by the JavaScript interpreter. The instrumenter is another perfect use case of code regeneration. After it adds some more extra instrumentation syntax nodes, the newly generated code is the one which is going to be executed. At this stage, nobody cares about the formatting, indentation, and other cosmetic appearance.

Of course, nothing stops us from composing two or more tools using these two different techniques!

18 Jun 22:14

Dimple: PMSI Launches Open Source D3 API

by Eric Carter

dimplePractical Management Solutions and Insights (PMSI) has launched an open-source API project for business analytics: dimple. Dimple aims to open up the flexibility and power of d3 to analysts. With little d3 knowledge needed, the dimple API gives analysts access to the tools capable of creating dynamic graphical representations of datasets.

With over 20 years experience, PMSI continues to consult and build tools that advance the analytics, business strategy, and transaction industries. Dimple represents another arrow in PMSI’s analytical quiver as data visualization and cutting edge graphical representations have taken a significant role in the big data movement. PMSI remains dedicated to giving clients an unparalleled view into ever facet of their business.

The dimple API is an object-oriented, JavaScript API targeted for data anlysts that do not necessarily have an extensive JavaScript background. The fundamental objects used for chart creation include chart, axis, series, and storyboard. Developers must include d3.js in any pages for which dimple is used. For more details, visit the dimple GitHub page.

Big data has developed into a household term in the Web 2.0 world. Titles such as data scientist and data analyst continue to pop up on job boards. However, the skill set needed to excel in the big data world does not necessarily require computer science capabilities. Dimple aims to bridge the gap between data analyst and computer scientist with a tool that empowers the programmatically-challenged analyst. Dimple could become a common tool for a burgeoning industry.


Sponsored by

Related ProgrammableWeb Resources

dimpledimple API Profile

18 Jun 22:11

Raspberry Pi : grosse mise à jour pour Raspbmc, une surprise pour juillet

La distribution Raspbmc pour le Raspberry Pi vient de se mettre à jour et la liste des changements est relativement longue. En effet, il y a de nombreuses améliorations et nouveautés avec, par exemple, la prise en charge du module caméra. Le développeur qui s'occupe du projet en profite pour préciser qu'une « annonce spéciale » sera faite en juillet.
18 Jun 15:07

Le jour où Paris est resté dans le noir

by Lâm

La météo exceptionnelle sur Paris et sa région aujourd’hui a produit des images très impressionnantes…

image : La Défense

…………………………

Nous ne sommes pas chez un coiffeur, mais mazette, quelle météo folle aujourd’hui, notamment sur Paris et l’Île de France !

A l’heure où nous écrivons cet article, le temps est bien maussade. Mais deux heures auparavant, le ciel était bleu et resplendissant. Et ce matin ? Noir. Sûrement l’un des ciels les plus impressionnants de ces dernières années, le couvercle noir (et pluvieux) qui a recouvert la capitale a été immortalisée par de nombreuses personnes.

C’est alors que le Community Manager de la Ville de Paris a eu la bonne idée de rassembler les meilleures images sur le compte Pinterest de la ville.

image : Christian Hartmann pour Reuters / Slate

image : PSME

image : O petites choses

image : Mary_Brit

image : Zarry Bizeva

image : PFRunner

Si vous avez pu immortaliser ce temps d’apocalypse, n’hésitez pas à le partager sur la page dédiée de la ville. En attendant : l’Eté, c’est officiellement dans 4 jours…

…………………………

+ Pinterest de la Ville de Paris

+ via

18 Jun 15:00

Combien gagnent les geeks ?

by Jacques Le Bris

Le cabinet de recrutement Urban Linker vient de publier son étude salariale des profils techniques pour le secteur Internet. Six domaines sont examinés à la loupe : PHP, JAVA & .NET, front end, big data, mobile, et enfin UI & UX.

 

 

Développeur PHP

 

Seuls les profils juniors accusent une baisse de leur moyenne salariale du fait de l’augmentation continue du nombre d’autodidactes se dirigeant sur la filière du développement web. Le lancement de plusieurs formations spécialisées devrait rééquilibrer les salaires des nouveaux entrants dans les années à venir.

Le salaire : de 28 000 euros brut par an pour un débutant à 65 000 pour un expert ayant une expérience sur des frameworks de type Symfony 2 par exemple.

 

Développeur JAVA & .NET

 

Que ce soit en Java ou en .NET, les salaires de départ des profils juniors sont élevés car ils correspondent dans la majorité des cas à des profils issus de formation bac +5 :

- JAVA : Les juniors ont souvent un intérêt et une auto-formation à Android qui leur donne une double compétence et augmente donc le niveau de salaire. 
- .NET : la forte croissance des demandes de profils .NET Webform liée à l’évolution du SAAS, du cloud et des logiciels applicatifs (au profit du winform) a eu un impact direct sur l’augmentation globale des recherches de profils .NET.

Le salaire : de 35 000 euros brut par an pour un junior à 65 000 euros pour un chef de projet.

 

Développeur front end

 

Une augmentation des salaires est notable, notamment du fait de 3 facteurs :

L’émergence du multi-device qui implique la maîtrise des aspects de responsive web design en particulier avec Bootstrap Twitter.L’évolution des expériences et interfaces utilisateurs.La montée en puissance de JavaScript en particulier, liée à sa démocratisation et à l’éclosion de nouvelles librairies / frameworks comme Backbone.js, Angular.js, Ember, Knockout.js ...

Le salaire : entre 26 000 euros brut par an (débutant) et 65 000 euros brut par an (expert / architecte).

 

Développeur big data

 

Le « big data » est relativement nouveau. En France, ce marché n’étant pas encore mature, il n’existe actuellement que deux postes clairement identifiés comme appartenant véritablement au monde du « big data » : le développeur data analyst et le développeur data scientist.

Le salaire : de 35 000 euros brut par an pour un data analyst débutant à 75 000 euros brut par an pour un data scientist confirmé.

 

Développeur mobile

 

La demande des appli mobiles reste en croissance mais elle a été plus faible cette année. L’émergence de certaines technologies a permis de développer des sites mobiles de qualité plus facilement, ce qui a réduit la demande de profils pour le développement d’une application mobile.

Ces profils restent demandés par les recruteurs, mais les entreprises sont plus exigeantes sur les compétences des développeurs rencontrés, du fait d’un marché plus mature et d’utilisateurs finaux plus avertis. Ainsi, on observe une stagnation des salaires.

Le salaire : entre 35 000 et 65 000 euros brut par an en fonction de l’expérience.

 

Métiers UI & UX

 

Cette nouvelle section est liée à l’interface et à l’expérience utilisateur, en particulier vers trois métiers : l’ergonome (UX Designer), le Designer d’Interaction (UI Designer), l’architecte de l’information. Ce sont des métiers jeunes qui ne dépassent pas les 10 ans d’existence et qui sont de plus en plus demandés sur le marché. Ces métiers se situent entre prestation informatique et création graphique. Ces professions sont majoritairement présentes au sein des agences et tendent à s’accroître chez l’annonceur au détriment d’un statut de freelance.

La rareté de certaines compétences et l’expertise sont des points qui peuvent aboutir à une surenchère sur le marché en particulier les profils d’ergonome ou d’architecte de l’information.

Le salaire : entre 28 000 et 65 000 euros brut par an.



18 Jun 14:35

Salon du Bourget : Parrot annonce de nombreuses nouveautés autour de l’AR.Drone et des drones civils professionnels

by Eric
Parrot vient de dévoiler de nombreuses nouveautés pour l'AR.Drone. Attachez vos ceintures, décollage immédiat.

Les drones vont changer notre vie ! Toute l'actualité des drones sur Smartdrones.fr

17 Jun 07:17

Les employés de Waze devraient empocher près d’1 million d’euros chacun

by Juliette Raynal
C’est ce qu’on appelle décrocher le jackpot. Selon les informations du site d’informations Haaretz, les collaborateurs de la start-up israélienne Waze,...