Shared posts

09 Oct 23:32

The Tower Infinity, la première tour ‘invisible’ sera Sud-Coréenne

by Axel-Cereloz

Lundi 16 septembre

Divers - 16 septembre 2013 :: 10:34 :: Par Axel-Cereloz

La Corée du Sud a décidé de construire un bâtiment symbolique visible aux yeux du monde. Visible n’est d’ailleurs peut-être pas le mot à employer puisque ce building sera… invisible.

C’est comme ça, il en faut toujours plus à l’être humain. Alors qu’on commence entendre parler du développement de tenues de camouflage qui utilisent les capacités du calamar, rendre les Hommes invisibles ne suffit plus, il faut également rendre les bâtiments invisibles. Certes, je caricature, mais c’est ce que l’on pourrait croire si l’on s’intéresse à une histoire qui se déroule en Corée du Sud. Le pays a validé la construction d’un building qui sera ‘invisible’.

Invisibilité technologique

Alors certes, l’immeuble ne sera pas réellement invisible grâce à un quelconque tour de magie. Mais il utilisera la technologie pour y parvenir du mieux possible. Un ingénieux système de caméras et de LED sera mis en place. Le procédé est assez simple mais difficile à expliquer sans dessin. Le schéma ci-dessous facilitera la compréhension. Quand vous regardez une face de l’immeuble, une caméra située de l’autre côté va capturer les images situées derrière le building. Celles-ci seront diffusées sur la face que vous êtes en train de regarder pour vous donner l’impression de voir à travers l’immeuble, le rendant ainsi ‘invisible’.

TowerInfinitySchema The Tower Infinity, la première tour invisible sera Sud Coréenne

Une tour symbolique

Baptisé ‘The Tower Infinity’ (La Tour Infinie), le bâtiment mesurera tout de même 450 mètres de hauteur. Elle sera un véritable symbole pour la Corée du Sud : « La tour montre subtilement l’ascension de la Corée dans le monde en établissant sa présence grâce à la diminution de sa présence » selon GDS Architects, la société en charge du projet.

TowerInfinity The Tower Infinity, la première tour invisible sera Sud Coréenne

Et les avions dans tout ça ?

Le bâtiment devrait être construit d’ici 2014 et sa taille (450 mètres) le placera directement à la troisième place des points d’observation les plus hauts du monde. On ne sait cependant pas comment la Tower Infinity composera avec les avions de l’aéroport situé non loin. Les oiseaux vont aussi probablement devoir durement payer cette initiative de l’Homme qui veut toujours faire plus fort que son voisin.

(sources [1], [2])

 The Tower Infinity, la première tour invisible sera Sud Coréenne
twitter The Tower Infinity, la première tour invisible sera Sud Coréenne

Féru de culture (numérique et autre), étudiant et rédacteur chez Presse-citron. N'hésitez pas à me suivre sur Twitter.

 The Tower Infinity, la première tour invisible sera Sud Coréenne
twitter The Tower Infinity, la première tour invisible sera Sud Coréenne

Tags: building, Corée du Sud, invisible, symbole, The Tower Infinity

05 Oct 07:56

The Meaning of a Poem

The Meaning of a Poem

Graph by: Unknown

05 Oct 07:54

Upgrade with zero downtime

by sharhalakis

by @essepl

01 Oct 07:00

Ploum : Le Web n’est pas très important mais il est essentiel !

by Ploum
children_in_a_ship

Sur le web, il est facile d’interagir avec des milliers de personnes, de refaire le monde, de se sentir important. Parfois, lorsqu’on m’affuble du titre, hautement convoité, de « blogueur influent », je rappelle que mes articles sont lus, quand ils ont du succès, par quelques milliers de personnes. Très rarement par quelques dizaines de milliers de personnes. Voire, pour mes plus grand succès, par quelques centaines de milliers de personnes.

Si, en termes web, ces chiffres sont appréciables, force est de constater que la moindre émission de télé achat du jeudi après-midi a une audience au moins comparable. Le nombre de fois où j’ai été reconnu, dans un contexte autre que le web, par un lecteur, se compte sur les doigts d’une main. Par contre, les rares fois où je suis passé à la télévision locale, même quelques secondes, toute ma rue et mon quartier ne tarissaient pas d’éloges sur ma prestation.

Le web, une importance toute relative

Lorsque que, comme moi, on se plaît à prévoir le futur et à le construire, il est facile de s’imaginer déjà vivre dans ce futur. Un monde où le web aurait remplacé la télévision et les médias traditionnels.

Mais la dérouillée subie par le Parti Pirate en Allemagne et par le Wikileaks Party en Australie viennent nous rappeler que le web reste, encore et toujours, l’affaire d’une poignée d’initiés, généralement instruits et intellectuels. Si les smartphones se démocratisent, les utilisateurs n’en tirent que très peu profit. La plupart n’ont même pas un abonnement adapté, étant limité à 100 Mo par mois et, ne comprenant pas ce qu’est 1 Mo, n’utilisant internet qu’en Wifi à la maison. Quand ce n’est pas un abonnement « Facebook only ».

De plus, le web reste un média de l’écrit. Même pour regarder des vidéos, il est nécessaire de lire les titres, de savoir où cliquer. Or, 10% de la population francophone en Belgique est tout simplement analphabète. Et près d’un enfant de 15 ans sur trois sait lire mais ne comprend pas ce qu’il a lu. Cette réalité, je l’ai vécue de plein fouet lorsque, témoin de bureau aux dernières élections, j’ai vu des électeurs, désemparés, demandant qu’on leur explique ce qu’il fallait faire avec le bulletin. Un jeune homme d’une vingtaine d’années demanda qu’on lui pointe la case à cocher pour voter Front National, à quoi il lui sera répondu que le Front National ne se présentait pas dans la région.

Comme le souligne Alain Gerlache, on ne voit poindre aucun parti politique d’importance issu de la mouvance web et, même après des révélations comme celles de Snowden, les problématiques liées au web sont loin de s’imposer comme des enjeux politiques prépondérants. D’ailleurs, si les politiciens aiment se mettre sur les réseaux sociaux, aucun écart de voix significatif n’a encore été souligné comme étant lié à une présence active sur le web.

Le web n’est donc pas si important. Et pourtant, il est essentiel, primordial !

Le web sera important

Beaucoup voient dans le récent échec allemand la fin du Parti Pirate, la preuve que « le web n’est pas politiquement important ». Mais si cette observation est factuelle aujourd’hui, à l’heure où j’écris ces lignes, le monde change, évolue. Qu’en est-il de demain ?

La génération active a été élevé par la télévision. Moi-même, je suis issu de la génération « Club Dorothée » et je n’ai découvert le web qu’avec mon entrée dans la vie adulte, à peu près en même temps que mon premier téléphone portable.

Mais tous ces smartphones, toutes ces tablettes sont un accès au web. Il suffit d’un clic sur Facebook pour se retrouver confronté à des nouvelles idées. Les adolescents d’aujourd’hui sont la toute première génération à passer plus de temps sur le web que devant la télévision. Une génération qui a toujours connu le web, le chat, la video conférence. Une génération qui ne se souvient pas qu’on puisse exister sans Facebook. Et qui se réapproprie la communication écrite, au grand dam des puristes de la langue.

Si nous constatons que le web devient chaque jour plus important dans notre entourage technophile, un changement radical de société ne s’accomplit pas du jour au lendemain. Être trop en avance sur son temps n’est pas un avantage en politique.

Le web doit devenir important

Si je pense que ce changement est inévitable sur le moyen terme, je reste également convaincu qu’il est souhaitable et qu’il doit être encouragé par tous les moyens possibles.

Il n’est pas rare d’entendre des réflexions fatalistes comme quoi les jeunes ne comprennent pas réellement Internet, qu’ils ne savent pas réellement l’utiliser autrement que pour aller sur Facebook, que le niveau d’orthographe est en baisse.

Mais je vois les choses différemment : beaucoup plus de jeunes ont accès à internet et donc à la culture écrite. Ils découvrent, certes maladroitement. Ils façonnent leurs outils et développent une culture qui leur est propre. Les « memes » et autre « rage comics » sont, au delà de l’aspect humoristique, des moyens d’expression et d’échange. À travers eux, les adolescents relativisent les coutumes et les traditions locales, ils découvrent leurs points communs et leurs différences. Ils se font des amis tout autour du globe. Bref, ils s’éduquent, ils s’émancipent. Ils se forgent une citoyenneté mondiale, une conscience politique différente de tous les clivages gauche-droite que nous tentons de leur inculquer. Ils découvrent le goût de la lecture à travers les blagues Facebook plutôt qu’avec Zola.

Et si ils ne sont pas des informaticiens chevronnés, je rappelle que je conduis une voiture depuis quinze ans et ne sait toujours pas faire la différence entre une bielle et un joint de cardan.

Le web ne peut être contrôlé

À cause de son pouvoir de disruption, le web fait peur, très peur. Il serait tellement plus confortable de le cantonner dans un rôle accessoire de support commercial. Une sorte de gigantesque panneau publicitaire où les participants partagent volontairement des pubs mais où tout autre type de partage serait banni. On invoquera, au choix, la propriété intellectuelle, un contenu contraire aux bonnes mœurs ou une opinion « incitant à la haine ».

Ce bridage du web, cette censure généralisée peut réussir. Le récent scandale de la NSA prouve que le web est déjà beaucoup plus contrôlé que ce que nous imaginions. C’est pour cette raison que sont nés, entre autres, le Parti Pirate ou Wikileaks. Et s’ils viennent à disparaître, d’autres prendront la relève. Du moins je l’espère de tout cœur.

Car dans un an, cinq ans ou vingt, les enfants du web seront au pouvoir. Ils auront été éduqués par le web, formatés par le web. Et ils devront décider que faire de nous, pauvres vieillards cacochymes, devenus d’inutiles fardeaux dans une société contrôlée à l’excès et endettée jusqu’au cou.

À ce moment là, peut-être que nous nous mordrons ce qui nous reste de doigts d’avoir laissé le partage et l’entraide devenir des crimes. Nous regretterons l’époque où nous avons eu le choix et nous avons préféré voter pour de traditionnels politiciens affairistes, par simple peur du changement, convaincus que le web n’était pas si important…

 

Photo par Kvitlauk

Merci d'avoir pris le temps de lire ce texte. Ce blog est payant mais vous êtes libre de choisir le prix. Vous pouvez soutenir l'écriture de ces billets via Flattr, Patreon, virements IBAN, Paypal ou en bitcoins. Mais le plus beau moyen de me remercier est de simplement partager ce texte autour de vous.

flattr this!

Gravatar de Ploum
Original post of Ploum.Votez pour ce billet sur Planet Libre.

28 Sep 09:57

If You're Programming a Cell Phone Like a Server You're Doing it Wrong

by Todd Hoff

Power on a cell phone is like water in a desert. It’s the very stuff of life. If you take the same naive programming techniques you learned when programming on a server in a datacenter your cell phone will die of thirst.

This is dramatically shown by Reto Meier, Tech Lead for the Android Developer Relations Team, in a remarkable series of instructional videos:

28 Sep 09:52

Windows Picture Passwords - are they really as "easily crackable" as everyone's saying?

by Paul Ducklin
Following a USENIX paper about the security of Windows Picture Passwords, you may have read that they are "easily crackable." Paul Ducklin wondered about that, and tried to come up with a balanced view...
14 Sep 12:29

How Much a Pineapple Under the Sea Costs [Infographic]

by ACrezo

David Cross has an interesting pastime: He calculates the price of fictional real estate. If you’ve ever wondered how a sentient sponge who works as a fry cook can afford to own the spacious pineapple he shares with his pet snail at 124 Conch Street, Bikini Bottom, then wonder no more:

pineapple

This infographic is nice, but there’s a lot more happening here. Check out Cross’ post on Movoto Real Estate for the full rundown.

[via unique daily]

14 Sep 08:31

Slideshow

Points to anyone who hacks the Flickr devs' computers to make their text editors do this when you click on anything.
12 Sep 21:56

Pour que l’attente au téléphone ne soit plus une torture musicale

by Laure Beaulieu

Quoi de plus horripilant, déprimant, décourageant et antimusique que ces choses qui meublent l’attente au téléphone lorsqu’on essaye de joindre sa banque, sa mairie, un quelconque SAV ou le standard de l’hôpital. Contrairement à ce qu’on croit, tous n’ont pas renoncé aux « Quatre saisons » ni à Richard Clayderman.

Alors rien que pour les remercier de l’intention, j’ai choisi de célébrer trois institutions qui ont décidé d’adoucir ce moment forcément désagréable. On aime ou pas, mais ils ont essayé. Et on implore toutes les autres de prendre les mêmes risques.

1

Monoprix : ...








12 Sep 21:14

Une loi pour interdire la livraison gratuite des livres (MàJ)

Mise à jour : Le projet de loi est programmé pour une discussion en séance plénière de l'Assemblée Nationale dès le 3 octobre à 9h30. Mardi, le député Christian Kert a été désigné rapporteur par la commission des affaires culturelles.

Article du 28 juin 2013 - En 2008, la Cour de cassation a autorisé la gratuité des frais de port dans la livraison de livres achetés sur Internet, mettant fin à la jurisprudence absurde qui avait abouti à condamner Amazon en 2007. Les libraires traditionnels représentés par le Syndicat de la Librairie Française (SLF) reprochaient aux grandes boutiques en ligne d'introduire artificiellement une remise supérieure aux 5 % autorisés par la loi Lang sur le prix unique des livres, en offrant les frais de port aux consommateurs. 

Le raisonnement était fou, puisqu'il tendait à considérer que tous les coûts induits par l'activité marchande devaient être ajoutés au prix unique des livres, et non retranchés de la marge bénéficiaire. Un libraire physique paye un loyer, parfois très cher, pour exposer les quelques milliers de livres qu'il propose aux clients. C'est un loyer beaucoup plus important que celui payé par Amazon pour ses entrepôts. Pourtant, on ne dit pas de ces librairies physiques qu'elles dissimulent une remise en ne répercutant pas le prix du loyer  ou de l'éclairage des rayons sur chacun des livres.

Dès lors, obliger les marchands en ligne à facturer les frais de port, c'est ne permettre qu'aux librairies physiques de vendre les livres au prix unique imposé par l'éditeur. Sous prétexte que l'on est sur Internet et qu'il existe un coût d'envoi du livre, il faudrait payer plus cher.

Mais le débat n'est pas clos, loin s'en faut. Régulièrement, les charges contre Amazon et sa gratuité des frais de port reprennent. A nouveau cette semaine, de nombreux députés UMP ont signé une proposition de loi déposée par le président de groupe Christian Jacob, par Christian Kert, et par Hervé Gaymard qui un habitué des lois sur les livres. Composé d'un unique article, la proposition de loi demande que "la prestation de livraison à domicile ne (puisse) pas être incluse dans le prix" du livre vendu au consommateur — une rédaction d'ailleurs juridiquement bancale.

Cependant le vrai problème posé par Amazon n'est pas la gratuité des frais de port, mais le régime d'évasion fiscale (voire de fraude fiscale) qui lui permet de l'offrir. Même si c'était pour accuser injustement Amazon d'avoir tué Virgin, la ministre de la Culture Aurélie Filippetti avait raison de dire que les commerçants physiques sont "soumis à une concurrence déloyale de certaines grandes entreprises de type Amazon", qui ne sont "pas soumises à la même fiscalité que les entreprises localisées physiquement en France".

Il ne faut pas s'en prendre au symptôme, qu'est la gratuité de la livraison, mais bien à la maladie qu'est la fraude fiscale. Ce qui demandera, c'est vrai, un peu plus qu'un seul article de loi...

11 Sep 13:26

Netbeans + atoum = love <3

by Tomas Mysik

This blog post has been contributed by our NetBeans PHP user Julien Bianchi who has helped a lot with integrating atoum into NetBeans PHP support in NetBeans 7.4. He would like to tell you a few words about this new PHP unit testing framework and its support in NetBeans. Thanks, a lot Julien!


Hi all! If you are here today, it's because you know and probably use Netbeans. But you probably don't know atoum yet. Too bad, you missed one of the most powerfull and pleasant to use unit testing framework for PHP. Today, atoum is directly integrated in Netbeans and I'm here to introduce this new feature.

We, the atoum team, have one main goal: to provide users a modern, simple and intuitive tool to write unit tests. Integrating atoum in an IDE is a step farther to ease the use of such a tool. In this blog post, I'll try to cover the main functionalities: we will bootstrap a new project using atoum, configure it to be able to trigger our tests and then, we'll see how to debug them. Do not worry, thanks to Tomas and all the Netbeans' team work, this will be easy and will only happen through the Netbeans' user interface.

Bootstrapping

Once you have created your new Netbeans project, you will have to build a basic directory structure. Let's use something like this:

.
├── src
│   └── netbeans
│       └── sample
└── tests
    └── units
        └── netbeans
            └── sample

What does this tell us ? We prepared our project to host a netbeans\sample namespace where we will put our sources and a directory to host our tests. The last thing to do before writing the first line of code is to include atoum. atoum is available as a PHAR archive, a composer package, or on Github. In the example I'll use composer with the following content in the composer.json file:

{
    "name": "netbeans/sample",
    "description": "Netbeans + atoum = love <3",
    "require-dev": {
        "atoum/atoum": "dev-master"
    },
    "autoload": {
        "psr-0": {
            "netbeans\\sample": "src"
        }
    }
}

This could be automatically generated with Netbeans but I won't cover this step in detail here as it's the matter of one click: right click on your project name and choose Composer and then Install. As soon as you have your dependencies installed, you will be ready to continue.

Configuring

This is where we will start using Netbeans features. Let's start by opening the project properties window (right-click on the project name and select "Properties" then go to the "Testing" item in the left tree):

Project properties - Testing

Now, we have to tell Netbeans which directory will hold our tests (still in project's properties, go to the "Sources" item in the left tree):

Project properties - Testing

Use the "Browse" button next to the "Test folder" field and choose the tests directory. You can now save the settings and see that Neatbeans marks the tests as a special folder: "Test Files". This will let it automatically find your test files based on your source filenames.

For now, that's all you need to do to make Netbeans use atoum to run your tests. I told you atoum was a really simple tool: it's a self-contained tool and can run your test without any configuration! Netbeans takes full advantage of this and only asks you to choose your favorite tool by checking a single option! Of course, when you'll be more familiar with the tool, you'll be able to customize it more precisely.

For basic use cases, this should be sufficient and we can go to the next step: writing our first unit test because TDD is a good practice and atoum is oriented on this way of working (but you can also use it other way).

Writing unit tests

Before we start writing tests, let me explain some points I skipped until now: when we prepared our workspace, we created a deep tree in the tests directory. This is something that is required by atoum: you have to use namespace to structure your sources and tests and the tests should live in a namespace matching tests\units and your source namespace. In our example, our tests will live in the tests\units\netbeans\sample namespace as our sources are in netbeans\sample. We also follow the PSR-0 convention so our directories match the namespaces to ease autoloading.

So let's go! We want to write a Calculator class which will provide some basic operations: add, multiply and divide. Let's create the file tests/units/netbeans/sample/Calculator.php:

<?php
namespace tests\units\netbeans\sample;

use atoum;

require __DIR__ . '/../../../../vendor/autoload.php';

class Calculator extends atoum {
    public function testAdd() {
        $this
                ->if($object = new \netbeans\sample\Calculator())
                ->then
                    ->integer($object->add(1, 2))->isEqualTo(3)
        ;
    }
}

We now have our first unit test, so just launch it: click on its filename in the left tree and, as you prefer, use the CMD+F6 shortcut on Mac OS X or use the right-click menu and select "Run". Netbeans should display the result of the test run, saying that a test failed. Exactly what we expect: we tested a method which we don't have yet implemented (TDD FTW!):

Unit tests - Failure

What we have to do now is create our tested class and write the add method to make our test pass. Ass I told you, atoum and Netbeans expect your project to be PSR-0 compliant so our class will lay in the src/netbeans/sample directory:

<?php
namespace netbeans\sample;

class Calculator {
    public function add($a, $b) {
        return $a + $b;
    }
}

Using you prefered trigger, you can now rerun the unit test and see that everything is now green!

Unit tests - Success

This is how netbeans will report the tests results : a shiny progress bar and a list of ran test cases. If you are curious, you will also be able to see the command used to run tests and the raw output produced by atoum which is provided in the TAP format (I bet you won't want to read this but it's still interesting to know how everything works under the hood):

Unit tests - TAP output

I won't cover the other test methods and let you discover them here. Using TDD, you will now be able to quickly write a test, run it, see it's failing, switch to your source file (ALT+CMD+T on Mac OS X), write some code to make the test pass, run it, see it's passing, switch to the test (again with ALT+CMD+T), write a failing test, … This is how we do!

We will now switch to a new example to discover another feature: using XDebug to debug our code.

Debugging

Netbeans and atoum allow you to easily debug your code using XDebug. This is really handy when dealing with complex classes and tests. To show you how everything works, I'll use a Sorter class which has one method to do a bubble sorting on an array.

But before we can use XDebug with atoum, we'll have to do a bit of configuration. Here is the configuration used for the example:

zend_extension=xdebug.so

xdebug.idekey="netbeans-xdebug"
xdebug.remote_enable=1
xdebug.remote_autostart=0

What we do here is tell XDebug which IDE key will be used during debug session and enable remote debugging. remote_autostart will prevent atoum's child processes to automatically trigger a new session (yes, atoum runs every test in a single isolated PHP process!). If you want to know more about how to configure XDebug for a Netbeans usage, check out this documentation.

We are now ready to debug! To start your test in debug mode, you can chose between a keyboard shortcut (CMD+Shift+F5 on Mac OS X) or by right-clicking on the test file and choosing "Debug". But before triggering tests, you will have to put some breakpoint in your code so you can control the execution flow using debugger tools (Step over, step into, …).

XDebug - Session

Being able to run s step-by-step debugger in unit tests context will help you debug your code as you can make a specific behavior happen and track the execution in detail using the call stack and variables inspectors.

XDebug - Inspectors

Nothing really new compared to a conventional debugger session but still useful.

I hope the blog post made a good introduction to atoum in Netbeans, and perhaps made you want to test it. Of course, you will find all the code related to this post on Github. Feel free to check it out, try it and enjoy using atoum in Netbeans!

Netbeans + atoum = love <3 I wanted to thank everyone who worked on these awesome features, Tomáš Myšík for his work on Netbeans but also the entire Netbeans team and all the contributors who helped us make this happen. Finally, if you want to know more about atoum or need help, feel free to join us on IRC or have a look at the documentation.

11 Sep 06:55

12 PHP Debugging Tools for Developers

PHP Developers keep looking for useful PHP tools for creating innovative and interesting web applications. In this article I have gathered 12 PHP Debugging Tools for Developers which will help developers to easily find out and debug the errors in their applications and scripts. Following PHP debugging tool supports Ajax requests and includes generic data collectors and stack based error handling. I hope you will find the list handy and useful for your upcoming projects.

11 Sep 06:46

Un CDN P2P pour votre site

by Korben

Voici un service loin d’être idiot. Ça s’appelle PeerCDN, et ça va vous permettre d’économiser pas mal de bande passante si vous êtes webmaster. Comment ?

Et bien PeerCDN, après inscription, vous donnera un bout de code à insérer dans le <head/> de toutes vos pages. Une fois que c’est fait, de javascript de 9 kb utilisera alors la techno WebRTC pour établir des connexions P2P entre vos visiteurs afin que ces derniers aillent chercher le contenu statique de vos pages (images, vidéos…etc) directement chez l’internaute le plus proche d’eux qui a déjà chargé ce contenu.

Le service fonctionne sous :

  • Internet Explorer (8+)
  • Chrome (all)
  • Firefox (4+)
  • Safari (5.1+)
  • Opera (12+)
  • iOS (5+)
  • Android (3+)

et promet une réduction de la bande passante d’environ 50%. Pas mal, surtout si on passe par des services comme Cloudfront / S3 qui facturent au GB. L’autre truc à savoir, c’est que le service est sécurisé, les transferts chiffrés et toutes les données sont contrôlées pour être certains que ce qui part est bien ce qui arrive chez l’internaute.

peerCDN Un CDN P2P pour votre site

Le HTTPS n’est pas supporté et vos fichiers ne devront pas dépasser 500 MB. Pour info, les gens à l’origine de ce service sont Feross Aboukhadijeh et Abi Raja.

Voici un petit tour d’horizon de ce javascript en vidéo.

Évidemment, pour le moment, c’est en beta mais ça passera payant bientôt pour les gros sites commerciaux (et toujours gratuit pour les autres). Il faut que je teste ça.

Merci à Sebsauvage pour le partage.

11 Sep 06:22

Android : le Kitkat de trop

by Camille Gévaudan
Prenant de court les internautes inventifs qui rêvaient de tartes au citron et de kouign-amann, Google se lance dans une vaste opération de publicité croisée avec Nestlé pour nommer son prochain système d'exploitation mobile... Android KitKat.
11 Sep 06:18

Quand Nokia troll Samsung et Android KitKat

by Greg

Ça s’est passé le jour de l’annonce des Galaxy Note 3 et Galaxy Gear, mais également le jour suivant l’annonce de Google concernant la nouvelle version d’Android : Android 4.4 KitKat.

Sur son compte Twitter Allemand, Nokia s’est offert un petit troll à l’encontre de la nouvelle version d’Android, mais aussi du Galaxy S4 de Samsung… Évidemment, ça reste de bonne guerre :)

Have a break… #Kitkat #Nokia pic.twitter.com/6OuEQIVLLj

— Nokia Deutschland (@NokiaHomebase) September 4, 2013

09 Sep 07:14

Ce mois-ci sur internals@php - Juillet 2013

by Pascal MARTIN

Après une succession de mois, comme mai et juin, très calmes, voici mon dépilage d’internals@ pour le mois de juillet 2013, qui a été encore plus loin niveau calme, avec seulement 330 mails.

Sous forme d’un graphique représentant le nombre de mails par mois sur les trois dernières années, on obtient (l’historique depuis 1998 est disponible ici) :

Nombres de mails sur internals@ ces trois dernières années


C’était prévu depuis quelques temps : suite à la sortie de PHP 5.5.0, Johannes Schlüter a annoncé que PHP 5.3 a atteint sa Fin de Vie, et que PHP 5.3 ne recevrait plus que des correctifs de sécurité — et ce pour une durée de un an.

Il est donc plus que temps de passer à PHP 5.4, qui est stable depuis plus d’un an ; ou même, de monter directement à PHP 5.5, qui a été déclarée stable il y a un peu plus d’un mois.

En parallèle, PHP 5.5 semble commencer à suivre un cycle d’une version mineure par mois (comme le fait PHP 5.4 depuis un bon moment, et comme l’a aussi fait PHP 5.3) : PHP 5.5.1 a été publiée le 18 juillet.


Chris London a évoqué l’idée d’ajouter à l’instruction foreach() une syntaxe du type foreach ($array as $key => ) {}, qui pourrait servir lorsque l’on souhaite itérer seulement sur les clefs d’un tableau.

Ajouter un nouveau cas pour cette situation ne semblait pas nécessaire à Robin Speekenbrink, qui a proposé d’utiliser array_keys(). Mais comme l’a ensuite souligné Nikita Popov, c’est un cas où la fonctionnalité de Générateurs introduite en PHP 5.5 serait utile, évitant de charger en mémoire l’ensemble des clefs du tableau.


Lior Kaplan a fait une première passe sur les Pull Requests Github en attente, en vue de faire un peu de tri entre celles qui peuvent être mergées, celles qui ont des impacts importants et pourraient nécessiter une RFC, et celles pour lesquelles une intervention de l’auteur d’origine est souhaitée.

Différents types de problèmes semblent se poser, lorsqu’il s’agit de ces PR non-mergées :

  • Dans certains cas, ceux qui les ont soumises disparaissent,
  • Il arrive que des PR soient soumises sans test associé — et les développeurs existant n’auront pas forcément le temps d’écrire des tests pour une fonctionnalité qu’ils n’ont pas eux-même poussée (comme l’a noté Stas Malyshev, il est plus intéressant de passer du temps à merger des PR complètes que de travailler sur d’autres incomplètes),
  • Occasionnellement, les discussions sur une PR en viennent à stagner,
  • Et, malheureusement, il n’y a pas assez de développeurs de PHP suivant les PR — et étant à même de comprendre les patchs soumis en vue de les valider.

Lior Kaplan a depuis continué à rédiger ce type de rapports ; j’espère que cela permettra aux PR d’être plus rapidement prises en compte.


Chris London a fait remarquer qu’il était possible d’incrémenter des lettres, mais pas de les décrémenter ; il a donc proposé d’implémenter cette fonctionnalité — ou de lever un avertissement indiquant que ceci n’est pas possible. Effectivement, comme l’a noté Martin Amps, il pourrait être bon de clarifier comment fonctionnent les manipulations de chaînes avec les opérateurs arithmétiques.

Yasuo Ohgaki a indiqué que ces comportements sont documentés, et implémentés de la sorte depuis des années.

Cela dit, j’aurais assez tendance à être d’accord avec Dan Cryer qui demandait quelle utilité il pouvait y avoir à utiliser des opérateurs mathématiques avec des chaînes de caractères.


Les language constructs comme isset() ou echo ne sont pas callable. Daniel Lowrey a demandé à quel point ceci est profondément ancré dans le moteur de PHP, et s’il y avait des chances pour que cela change un jour.

A cette question, Johannes Schlüter a répondu que les constructions langage n’avaient pas nécessairement la même sémantique que les fonctions. Par exemple, pour isset(), le paramètre n’est pas passé par la pile de paramètres standard, mais directement comme opérande de l’opcode correspondant — c’est d’ailleurs un élément fondamental qui permet de ne pas lever de notice lorsque isset() est invoqué sur une variable inexistante.

Pour echo et print, le fait que ces constructions soient utilisables sans parenthèses (et soient utilisées ainsi absolument partout) fait à lui seul qu’il ne serait pas envisageable d’en faire des fonctions.


Yasuo Ohgaki a demandé en quoi une portion de code comme echo ++$a + $a++; pouvait mener à un résultat non-défini ; et a rapidement modifié la documentation pour supprimer l’avertissement correspondant.

Sara Golemon a par la suite rédigé une réponse expliquant plus précisément ce qui était indéfini et pourquoi ; d’après elle, et d’après d’autres, la modification de documentation devrait être annulée.

Finalement, Yasuo Ohgaki a annulé son commit sur la documentation, et même proposé d’améliorer celle-ci.


Je parlais le mois dernier de l’idée qu’avait évoquée Florin Patan d’ajouter à PHP la notion de retour typé. Sara Golemon a fait remarquer que ceci existait déjà dans HHVM, et que si c’était aussi implémenté dans PHP, il serait intéressant que les deux implémentations suivent la même logique, plutôt que de partir chacune dans leur direction.

Igor Wiedler a remis en avant le sujet de l’import de fonctions namespacées, pour lequel il avait rédigé la RFC: Importing namespaced functions il y a quelques mois de cela. Suite aux premiers retours, la RFC a été mise à jour pour ajouter le support de constantes namespacées.

En toute fin de mois, Julien Pauli a proposé d’ajouter une méthode \closure::isbindable(), permetant de déterminer si une closure données est ou non bindable.

Notons aussi que plusieurs sujets de discussion ont évoqué des travaux en cours, corrections de bugs et améliorations mineures — par exemple, sur PDO_DBLIB et les extensions PostgreSQL, ou sur l’extension AOP.


Nous voila sur les deux mois de congés d’été, et cela se sent sur internals@ : peu de discussions sont actives, et elles voient moins d’intervenants et d’échanges que ce que l’on peut usuellement constater le reste de l’année… Néanmoins, les idées continuent d’arriver, et les discussions ne s’arrêtent pas ;-)



internals@lists.php.net est la mailing-list des développeurs de PHP ; elle est utilisée pour discuter des prochaines évolutions du langage, ainsi que pour échanger autour de suggestions d’améliorations ou de rapports de bugs.
Elle est publique, et tout le monde peut s’y inscrire depuis la page Mailing Lists, ou consulter ses archives en HTTP depuis php.internals ou depuis le serveur de news news://news.php.net/php.internals.


09 Sep 06:43

When it all began

by Oliver Widder
babel2.jpg
05 Sep 06:43

DTrace with PHP Update - Christopher Jones

I've recently been working with the in-built DTrace code in PHP 5.4 and PHP 5.5, specifically stabilizing its configuration on Solaris and Oracle Linux.

DTrace is an always-available, low overhead, tracing framework that has just celebrated its 10th Birthday. DTrace support in PHP was originally via a separate PECL extension. In PHP 5.4 David Soria Parra (then at Sun) merged DTrace functionality to core PHP making it more accessible.

At the end of last year, I blogged about Adding DTrace Probes to PHP Extensions and how Linux's SystemTap could be used to trace the DTrace probe points. Since then, Oracle's Linux's DTrace project has been making great strides. The latest Oracle Linux UEK3 Beta kernel was just released. It comes with DTrace 0.4 and also supports "User-Level Statically Defined Tracing" (USDT) for the first time. This motivated me to make sure PHP DTrace worked well with "real" DTrace, not just with SystemTap's wrappers.

Some of the recent PHP DTrace changes were:

  • DTrace build script changes from PHP 5.5 were merged back to PHP 5.4 so both branches are now in sync.

  • A 'make install' recursive dependency issue that caused Zend/zend_dtrace.d to be deleted was fixed.

  • PHP DTrace configuration now uses the correct PIC or non-PIC objects. This also fixed building PHP when any extensions were built 'shared'.

  • A segmentation fault in the "error" probe was fixed.

  • PHP's OCI8 2.0 extension now builds correctly with "real" DTrace.

The changes were tested on Solaris and Oracle Linux. The core PHP changes should be available in the next monthly releases, PHP 5.4.20 and PHP 5.5.4. The PHP OCI8 2.0 changes are already available from PECL.

I'll cover more detail about using PHP and PHP OCI8 with DTrace on Oracle Linux in a later blog post, but the basic steps are:

  • Install the UEK3 kernel, currently in Beta from public-yum.oracle.com.

  • Install the dtrace-utils package with 'yum install dtrace-utils'

  • Download a PHP 5.4 or 5.5 snapshot from snaps.php.net (Or download PHP 5.4.20, PHP 5.5.4, or later, once they are available)

  • Configure PHP with the --enable-dtrace option

  • Load the DTrace module: modprobe fasttrap

  • Change the helper device to allow writing: chmod 666 /dev/dtrace/helper

  • Run a DTrace profiling script and your PHP application

05 Sep 06:16

La cryptographie nous protège t-elle vraiment de l'espionnage par la NSA ou la DGSE ?

Cet article est une exploration, essentiellement théorique, d'un problème technique intéressant : l'utilisation de la cryptographie est-elle utile lorsqu'on veut protéger sa vie privée contre l'espionnage massif auquel se livrent des agences gouvernementales comme la NSA ou la DGSE ? Je vous le dis tout de suite, il n'y a pas de réponse simple.

Notez bien la définition du problème : je ne parle pas des attaques par le pirate du coin (celui qui sniffe votre réseau Wi-fi au cyber-café), car la cryptographie est certainement indispensable contre lui, contre cet attaquant ordinaire. Et je ne parle pas non plus du cas où l'agence d'espionnage vous cible individuellement. Si la NSA a décidé que vous êtes un objectif intéressant et met tous ses moyens à vous espionner, il n'y a pas grand'chose à faire (le plus probable est qu'ils utilisent un spyware dans votre ordinateur, ou bien une écoute électromagnétique, à moins qu'ils ne préfèrent la méthode bien décrite dans xkcd). Dans ce cas, on fait de la gestion de risque, mais on n'espère pas être invulnérable.

Non, je me focalise sur l'espionnage de masse, passant à l'échelle, et visant des tas de gens dont la NSA ou la DGSE ne savent pas a priori s'ils sont une cible intéressante ou pas. C'est cet espionnage qui a fait l'objet récemment d'une prise de conscience, suite aux révélations d'Edward Snowden. Il a parlé de la NSA (et du GCHQ) mais il n'y a aucun doute que d'autres agences font pareil. En France, en raison d'une tradition d'obéissance au monarque qui remonte à longtemps, on n'a pas encore vu de « lanceur d'alerte » héroïque et désobéissant comme Snowden mais cela ne veut pas dire qu'un tel espionnage n'a pas lieu.

Mais comment savoir exactement les capacités de la NSA ? L'adage classique de la sécurité s'applique tout à fait ici : « Ceux qui savent ne parlent pas, ceux qui parlent ne savent pas ». Comme j'écris beaucoup sur ce blog, vous pouvez en déduire que je ne sais pas grand'chose. Il faut donc commencer par un sérieux avertissement : comme les agences secrètes sont... secrètes, on ne peut pas savoir exactement à quoi s'attendre. Cela n'empêche pas les Jean-Kevin de toute sorte d'affirmer bien haut « la crypto, c'est nul, on sait bien que la NSA peut tout casser et tout lire, lol, mdr ». Il faut juste se rappeler que ce genre d'affirmations ne vaut rien.

Est-ce que seuls les Jean-Kevin disent n'importe quoi ? Évidemment non. Les chercheurs en sécurité sont connus pour leur goût pour le sensationnalisme et les annonces spectaculaires, qui seront oubliés trois mois après. Chaque année, à Blackhat ou Defcon, il y a une annonce comme quoi la cryptographie est fichue, l'Internet à poil, et que nous allons tous mourir. En 2011, c'était BEAST, qui devait mettre fin à TLS. En 2013, on a eu la prédiction comme quoi RSA serait cassé dans cinq ans (un article particulièrement grotesque dans le sensationnalisme fut celui de Technology Review).

Bon, maintenant que j'ai critiqué ceux qui disaient n'importe quoi, que peut-on dire de sérieux ? Revenons un peu sur la cryptographie dans son service de confidentialité. Alice et Bob veulent communiquer secrètement. Ils chiffrent leurs communications, empêchant un tiers naïf de comprendre ce qu'ils se disent. Mais pour un tiers plus motivé et ayant davantage de moyens ? Il peut utiliser plusieurs méthodes anti-crypto (je ne cite que celles qui passent à l'échelle par automatisation, sans nécessiter de kidnapper Bob et de le faire parler) :

  • L'espion peut installer du spyware dans les logiciels de tout le monde (le nom de code « GENIE » à la NSA concerne apparemment un tel programme). C'est d'autant plus facile pour la NSA que la majorité des logiciels sont produits par des entreprises états-uniennes. La cryptographie ne protège qu'en transit, pas si une des machines terminales trahit.
  • Puisque, dans mon hypothèse de départ, l'attaquant est un État doté d'importants moyens matériels, il peut aussi utiliser la force brute. Si la clé de chiffrement fait 256 bits, on peut (en théorie) essayer systématiquement les 2^256 valeurs. Aucun algorithme (à part le one-time pad) ne résiste aux attaques par force brute. Mais, avec les tailles de clé utilisées dans les systèmes cryptographiques sérieux, c'est probablement irréaliste en pratique.
  • Il peut trouver une faille dans les logiciels de cryptographie. S'il casse GnuPG et la mise en œuvre de TLS utilisée dans Firefox, il aura déjà accès à bien des choses. Les logiciels de cryptographie sont des logiciels comme les autres et ont des bogues.
  • Il peut casser les protocoles de cryptographie. Il est étonnamment difficile de réaliser un protocole sûr, même quand les algorithmes sous-jacents sont corrects, comme le montrent les différentes failles de TLS (comme celle de renégociation). Sans compter la faille récurrente par laquelle trébuchent tant de mises en œuvre de la cryptographie : le générateur de nombres aléatoires (RFC 4086).
  • Il peut enfin casser les algorithmes de cryptographie eux-mêmes. C'est le plus spectaculaire (et c'est pour cela que les Jean-Kevin du monde entier aiment bien affirmer des choses comme « on sait bien que la NSA a cassé RSA depuis des années - sans doute dans son centre de recherches de la zone 51 ») mais pas le plus facile, loin de là. Les mathématiques résistent longtemps et, surtout, leurs progrès sont imprévisibles (comme le note à juste titre Schneier). Peut-être que, dans cinq ans, un étudiant dans sa chambre va subitement trouver un moyen simple de décomposer en facteurs premiers, cassant ainsi RSA. Peut-être. Et peut-être pas. Les affirmations comme quoi « RSA sera cassé dans cinq ans » sont ridicules : on ne prévoit pas les percées en maths comme les progrès de l'ingénierie (cf. la loi de Moore).
  • L'attaquant peut aussi contourner la cryptographie en se faisant passer pour le correspondant. C'est ce qu'on nomme une attaque de l'homme du milieu et cela a par exemple été utilisé par le gouvernement iranien en 2011. Leur méthode était de détourner le trafic HTTPS vers une machine gouvernementale et de présenter un « vrai/faux » certificat obtenu auprès d'une AC piratée, comme Diginotar. Ainsi, Alice croyait parler avec Bob alors qu'elle parlait à un espion... Le fait que la communication soit chiffrée n'aide pas si on parle au méchant.
  • L'attaquant peut aussi, s'il a l'autorité d'un État derrière lui, ne pas s'embêter et aller prendre les données où elles sont, chez le fournisseur de service. C'est ce que fait le programme PRISM, révélé par Snowden, avec la complicité des gros silos de données comme Facebook ou Gmail. (Dans certains États - mais pas les États-Unis depuis le Patriot Act - il faut normalement l'autorisation d'un juge. Mais il existe des écoutes illégales comme dans l'affaire des gendarmes de l'Élysée.)
  • Une faiblesse souvent oubliée est celle des métadonnées : même quand on n'a pas accès aux communications elles-mêmes, les seules métadonnées peuvent être une mine de renseignements (ce qu'on nomme l'analyse de trafic). Les métadonnées peuvent être le qui (Alice écrit à Bob), le quand et le combien (pour une session HTTP, la taille des données transférées indique si on a lu un fichier ou si on en a envoyé un). C'est d'autant plus vrai que les métadonnées, contrairement à la plupart des contenus, sont structurées, conçues pour être analysées par des programmes informatiques (car elles servent à la facturation ou au routage).
À noter que certaines de ces attaques peuvent se faire dans le temps : la NSA enregistre la conversation à tout hasard... et la lira dans dix ou vingt ans, quand les progrès de la technique ou de la science le lui permettront. Pensez donc aussi à cela : cette conversation sera t-elle toujours « sensible » dans dix ans ?

Maintenant, quelles protections peut fournir la crypto contre ces attaques ? Attention, cela va être plus laborieux que la description des attaques.

  • Contre le malware installé sur la machine de l'utilisateur, rien à faire. La crypto suppose une plate-forme sûre. Il est possible que des machines construites à partir de composants sécurisés (TPM) résolvent le problème mais je ne suis pas optimiste, notamment parce que ces composants sont plus souvent utilisés pour contrôler l'utilisateur que pour l'aider à se protéger.
  • Contre les attaques par force brute, il faut des clés suffisamment longues. Rappelez-vous du pouvoir de l'exponentielle. 2 puissance 256, par exemple, est un nombre qui défie l'imagination humaine. Il ne suffit pas de dépenser beaucoup d'argent et d'acheter des grosses machines pour tester 2^256 possibilités... (Attention, avec certains algorithmes, il existe des attaques appelées « force brute » mais qui intègrent en fait plusieurs astuces pour ne pas tout essayer. C'est ce qui explique que la longueur de la clé ne soit pas le seul paramètre à prendre en compte.) On entend souvent dire que le calcul quantique va tout changer en permettant des bonds colossaux de performance. Mais, malgré les prétentions des commerciaux qui vendent des « ordinateurs quantiques », on en est très loin. Les résultats concrets avec ces ordinateurs restent du domaine du laboratoire. Et, comme le note Schneier, les systèmes cryptographiques ont bien d'autres failles, plus faciles à exploiter que le cassage de la clé par le mythique ordinateur quantique.
  • Et contre les failles dans les logiciels ? Code source disponible, bonnes pratiques de programmation, examen par les pairs... Aucune de ces techniques ne fait de miracle mais, ensemble, elles aident à avoir une assez bonne sécurité. (J'ai lu sur un forum un texte d'un Jean-Kevin proclamant avec assurance que « la NSA a une porte dérobée dans PGP ». Inutile de dire qu'il ne fournissait aucune preuve.)
  • Pour les failles dans les protocoles de cryptographie, c'est à peu près la même approche : protocoles publiés, examinés publiquement par de nombreux experts. Il restera forcément des failles (on en découvre de nouvelles de temps en temps, dont certaines étaient peut-être déjà connues de la NSA) mais c'est mieux que rien. Notez que les protocoles non publiés utilisés dans les produits commerciaux fermés ne valent pas grand'chose. À chaque conférence de sécurité, un chercheur explique comment il en a rétro-ingénieré un. Parfois, un protocole secret chanceux tient le coup plus longtemps (RC4...) mais c'est rare.
  • Pour les algorithmes de cryptographie, c'est un pari sur l'avenir : on espère que l'algorithme ne sera pas cassé. À part l'espérance, la contre-attaque est la même que pour les programmes et les protocoles, à savoir la publication et l'analyse de sécurité au grand jour. On ne sait bien sûr pas où en est la NSA (on dit parfois qu'ils ont dix ou vingt ans d'avance sur la recherche publiée) mais l'ensemble des chercheurs qui travaillent et publient fait néanmoins un bon travail. Si RSA faiblit et devient vraiment trop incertain, on pourra passer aux courbes elliptiques (RFC 6090). Notez quand même qu'une bonne partie des chercheurs compétents ne publie pas, parce qu'ils travaillent pour la NSA, ou parce qu'ils préfèrent vendre leurs découvertes plutôt que d'aider l'humanité (si vous arrivez à trouver une décomposition en facteurs premiers facile, et que vous publiez, vous gagnez les 10 000 euros de la médaille Fields, soit bien moins que si vous vendez l'information à la NSA ou un de ses équivalents en Russie ou en Chine).
  • Contre l'attaque de l'homme du milieu, les solutions envisagées (encore largement expérimentales) tournent autour d'ajouts ou de remplacement du système des AC, comme le système DANE du RFC 6698 ou comme Perspectives.
  • Par contre, contre l'utilisation d'un gros silo de données comme Gmail ou Facebook, qui donne accès à toutes ses données à la NSA, la crypto ne peut rien. Elle ne protège que le voyage des données, mais tout est stocké en clair chez les fournisseurs de PRISM.
  • Enfin, pour la protection des métadonnées, le problème est compliqué. Les intermédiaires ont besoin des métadonnées pour acheminer le trafic et il n'est donc pas évident de les dissimuler (il existe des pistes de recherche mais pas encore de solution applicable). C'est pour cela que PGP ne chiffre pas les en-têtes. Pour sécuriser le courrier électronique, par exemple, il faudrait combiner PGP et SMTP sur TLS (RFC 3207 et attention : en pratique, SMTP sur TLS a des tas de limites, question sécurité).
Tout cela n'était que des solutions techniques car cet article se focalise sur l'aspect technique des choses. Mais, évidemment, le problème de fond est politique et c'est dans des changements politiques profonds qu'il faut chercher les vraies solutions. Il n'est pas normal qu'il faille être expert en crypto pour avoir une vie privée !

Autres bonnes lectures après cet article : l'interview d'un des développeurs de GnuPG ou bien un très bon article de Dan Goodin expliquant comment contourner (et non pas casser) la crypto ou encore celui de Peter Bright sur les vraies capacités de la NSA. Voir aussi l'article de Matthew Green qui fait le tour des techniques connues et inconnues pour déchiffrer le trafic TLS.

Conclusion ? Il faut évidemment de la cryptographie, ne serait-ce que « dans le doute », et à cause des nombreux attaquants moins équipés que la NSA. Snowden lui-même note que cela gêne l'attaquant. Mais ce n'est pas une solution magique et, dans son analyse de sécurité, il faut se demander « et si elle était cassée, quelles seraient les conséquences pour moi ? ».

Merci aux twittériens entre autres (hélas, je n'ai pas pensé à noter tout le monde) Nicolas Caproni, Ollivier Robert (également relecteur de cet article), Marc Levy, Geoffroy Couprie, Gildas Ribot, Damien Clauzel, et les autres. Merci à Gérard Fadrelle pour m'avoir rappelé l'attaque de l'homme du milieu que j'avais bêtement oubliée. Merci surtout au relecteur anonyme qui a fait l'essentiel de la relecture mais ne souhaite pas que son nom apparaisse.

05 Sep 06:10

La radio numérique n'est pas morte : adoption d'une norme

by Freenews
Le dossier de la radio numérique terrestre (RNT) refait surface alors même qu'on le pensait enterré, suite au désintérêt du gouvernement qui ne souhaite pas y voir figurer les radios publiques (groupe Radio France). Déjà boudée par la plupart des grands groupes de radio privés (Lagardère, RTL, NRJ et NextradioTV), la radio numérique se voyait menacée par l'absence de Radio France, ne laissant parmi ses soutiens que quelques stations indépendantes comme Radio Nova ou FG. Malgré tout, une norme vient (...)
04 Sep 21:48

La musique peut-elle être libre ?

by aKa

Michael Tiemann est vice-président de Red Hat mais il est aussi impliqué dans un ambitieux projet autour de la musique, The Miraverse qui propose notamment un studio d’enregistrement (fonctionnant, en toute logique, à l’aide de logiciels libres).

Il nous livre ici le fruit de ses réflexion en s’appuyant sur des citations de Glenn Gould et un projet dont nous vous reparlerons à la rentrée car Framasoft en sera le partenaire francophone : The Open Goldberg Variations.

La première édition du projet avait donné lieu à l’enregistrement directement dans le domaine public des Variations Goldberg de Bach. Il s’agira cette fois-ci d’enregistrer ensemble Le Clavier bien tempéré.


MusicRoom1b.jpg


La musique peut-elle être open source ?

Can there be open source music?

Michael Tiemann - 20 août 2013 - OpenSource.com
(Traduction : goofy, Sky, sinma, Asta, audionuma)

De l’eau a coulé sous les ponts depuis que les logiciels « open source » ont été baptisés ainsi en 1998. Le livre La cathédrale et le bazar a contribué à expliquer ce nouveau paradigme de la création des logiciels, et, avec le temps, les conséquences importantes et crédibles que Raymond avait prévues dans son essai s’avèrent aujourd’hui évidentes. Et il est possible qu’en raison de l’impressionnante liste des succès de la communauté du logiciel open source, ceux qui travaillent en dehors du domaine du développement de logiciels commencent à se demander : est-ce que de nouveaux paradigmes fondés sur les principes de l‘open source pourraient bouleverser aussi notre secteur ?

Nous avons vu cela arriver dans le monde du contenu créatif avec les Creative Commons. Larry Lessig, suivant une lecture simple de la constitution des États-Unis d’Amérique et s’appuyant sur beaucoup des intuitions publiées des années auparavant par Lewis Hyde dans le livre The Gift (NdT Le cadeau), a réalisé que bien qu’il n’y ait rien de mal en soi à commercialiser du contenu, il y avait quelque chose de terriblement mal à traiter les ressources culturelles comme privées, comme des propriétés aliénables à jamais. Lessig croyait, et je l’approuve, qu’il y a un bénéfice à donner au public des droits sur les contenus qui définissent leur culture, tout comme l‘open source donne à d’autres développeurs — et même aux utilisateurs — des droits sur les logiciels qu’ils possèdent. Regardez comment le public a utilisé ce droit pour créer Wikipédia, une collection phénoménale de l’un de nos artéfacts culturels qui ont le plus de valeur : la connaissance humaine.

Mais des limites à la portée de Wikipédia et ce qui est possible d’y être référencé sont apparues, notamment parce que beaucoup de créations culturelles qui auraient pu être des biens communs sont au contraire captives de copyrights pour une durée presque perpétuelle. La musique est une pierre angulaire de la culture, dans la mesure où les nations, les peuples, les époques, les mouvements politiques, idéologiques et culturels y font tous référence pour se définir, tout comme les individus se définissent eux-mêmes selon leurs gouts musicaux. Compte tenu de l’importance de la musique pour définir notre identité culturelle, dans quelle mesure devrions-nous en avoir la maîtrise, en particulier pour tout ce qui est censé relever du domaine public ?

Glenn Gould apporte une réponse étonnante à cette question dans deux essais écrits en 1966. Même si vous n’êtes pas un grand connaisseur de musique classique, vous avez sûrement déjà entendu les Variations Goldberg de JS Bach. Et dans ce cas, vous pouvez probablement remercier Glenn Gould car à l’âge de 22 ans, il a commencé sa carrière en signant un contrat et en six jours il a enregistré : Bach: The Goldberg Variations, en dépit du refus d’au moins un directeur de label. À l’époque, l’œuvre était considérée comme ésotérique et trop éloignée du répertoire pianistique habituel. Gould n’a pas cédé, et comme le mentionne Wikipédia : « Sa renommée internationale débute lors de son célèbre enregistrement des Variations Goldberg de juin 1955 dans les studios CBS de New York. Cette interprétation d’une vélocité et d’une clarté de voix hors du commun, et hors des modes de l’époque, contribuera notablement à son succès. ». Sans compter que dès lors les Variations Goldberg sont devenues un classique du piano.

Lorsque Gould a décidé en 1964 qu’il ne se produirait jamais plus en public pour se consacrer aux enregistrements en studio, le monde de la musique en a été très perturbé, parce que les concerts étaient considérés comme le summum de la culture musicale et les enregistrements comme une culture de seconde zone. Gould a répondu avec moults arguments à ces critiques sans chercher à en débattre mais en changeant le paradigme.

Ce qui n’a fait qu’irriter davantage les tenants de la musique institutionnelle. Voici l’essentiel du changement de paradigme tel que l’explique Gould dans The participant Listener :

Au centre du débat sur les technologies, il existe donc un nouveau type de public — un public qui participe davantage à l’expérience musicale. L’apparition de ce phénomène au milieu du vingtième siècle est le plus grand succès de l’industrie du disque. Car l’auditeur n’est plus seulement en position d’analyser passivement, c’est un partenaire dont les goûts, les préférences et les tendances modifient encore maintenant de façon latérale les expériences musicales qui retiennent son attention. C’est lui dont l’art de la musique à venir attend une participation bien plus grande encore.

Bien sûr, il représente également une menace, il peut vouloir s’arroger un pouvoir, c’est un invité indésirable au festin artistique, quelqu’un dont la présence met en péril la hiérarchie de l’institution musicale. Ce public participatif pourrait émerger, libéré de cette posture servile à laquelle on le soumet lors des concerts, pour, du jour au lendemain, s’emparer des capacités décisionnelles qui étaient jusqu’ici l’apanage des spécialistes ?

Il y aurait beaucoup à tirer des deux paragraphes ci-dessus, mais essayons un peu : considérez ce qui précède comme une allégorie dans le domaine musical du transfert de paradigme proposé par le logiciel open source. Cela semble difficile à imaginer aujourd’hui, mais quand j’ai proposé l’idée de lancer une entreprise qui fournirait un service de support commercial aux logiciels libres, une des objections majeures a été : « qu’il soit libre ou non, les utilisateurs ne veulent pas du code source. Ils ne veulent pas y toucher. Ils veulent payer pour la meilleure solution, un point c’est tout. ». Dans la logique de production du logiciel propriétaire, il était impossible d’envisager un seul instant que la meilleure solution pouvait fort bien inclure l’utilisateur devenu un contributeur du développement. Impossible alors de tolérer l’idée que des utilisateurs puissent assumer des capacités de décision qui étaient jusqu’alors le privilège de spécialistes. mais Cygnus Solutions a démontré que l’industrie du logiciel à venir attendait vraiment que les utilisateurs participent pleinement. Et il en va de même pour la création musicale, ce que Gould avait visiblement anticipé :

Le mot-clé ici est « public ». Ces expériences où l’auditeur rencontre de la musique transmise électroniquement ne font pas partie du domaine public. Un axiome bien utile, qui peut être appliqué à toute expérience dans laquelle la transmission électronique intervient, peut être exprimé à travers ce paradoxe : la possibilité d’avoir en théorie un public en nombre jamais atteint jusqu’à présent conduit à un nombre sans limites d’écoutes privées. En raison des circonstances que ce paradoxe suscite, l’auditeur est capable d’exprimer ses préférences et, grâce aux modifications par des moyens électroniques avec lesquels il ajoute son expérience, il peut imposer sa personnalité sur une œuvre. Ce faisant, il la transforme, de même que la relation qu’il entretient avec elle. Il fait d’une œuvre d’art un élément de son environnement sonore personnel.

Gould touche un point philosophique fondamental, qu’il est facile de mal interpréter en raison de la terminologie qu’il emploie. Il ne prétend pas que la transmission électronique aléatoire entraîne automatiquement que le contenu originel soit considéré comme un bien commun appartenant à tout le monde. Il dit plutôt que lorsque un signal électronique devient une expérience humaine, celle-ci n’est pas générique mais unique pour chaque individu. Et que l’avenir de l’art de la musique dépend de la façon dont on respectera le caractère individuel de cette expérience, au lieu de contraindre la transmission artistique à l’uniformité (à titre de note latérale, regardez un peu à quelles contorsions juridiques se livre l’industrie musicale actuelle pour prétendre que les téléchargements de fichiers numériques ne sont pas des « achats », par conséquents soumis aux règles de la vente, mais plutôt des « transactions », c’est-à-dire ne conférant aucun autre droit que celui d’être des récepteurs passifs, n’autorisant aucune autre posture que soumise).

Gould a écrit cela 20 ans avant que Lewis Hyde ne publie The Gift et 20 ans avant que Stallman n’écrive le Manifeste GNU. 30 ans avant que Lawrence Lessig n’écrive Code and other laws of Cyberspace et 30 ans avant que Eric Raymond n’écrive La cathédrale et le bazar. 40 ans avant que je ne commence à imaginer comment The Miraverse pourrait faire coïncider les idées des Creative Commons et de l’open source pour créer un futur nouveau et viable pour la musique. Mais maintenant, l’idée la plus audacieuse qu’il ait proposée (dans The Prospects of Recording) peut se réaliser :

Il serait relativement simple, par exemple, de fournir à l’auditeur la possibilité d’éditer les enregistrements à son gré. Bien entendu, un pas décisif dans cette direction pourrait bien résulter de ce processus par lequel il est désormais possible de dissocier la vitesse du tempo et en faisant ainsi (quoique avec une certaine détérioration de la qualité du son comme inconvénient) découper divers segments d’interprétations d’une même œuvre réalisée par différents artistes et enregistrées à différents tempos. Ce processus pourrait, en théorie, être appliqué sans restriction à la reconstruction d’un concert. Rien n’empêche en fait un connaisseur spécialisé de devenir son propre éditeur de bande sonore et, avec ces dispositifs, de mettre en œuvre son interprétation de prédilection pour créer son concert idéal personnel (…)

Il est vrai qu’à l’époque de Gould la technologie n’était pas disponible pour offrir au public de telles interactions : de son temps l’enregistrement multi-piste était incroyablement coûteux et disponible seulement dans quelques studios d’enregistrement commerciaux qui en avaient l’exclusivité. Mais aujourd’hui, les choses sont différentes, au moins sur le plan technologique. Ardour est une excellente station de travail audionumérique libre qui permet à n’importe quel ordinateur portable de devenir un puissant éditeur audio multipiste et un dispositif d’enregistrement. Et c’est ce que veulent les auditeurs participatifs. Mais les outils logiciels les plus puissants dans le monde ne peuvent pas créer un concert enthousiasmant à partir de rien, il doit y avoir un artiste qui est prêt à créer la trame sonore qui peut ensuite être mélangée et remixée selon les goûts de chacun. Et bien sûr, il doit y avoir un cadre de droits commerciaux qui ne mette pas toute l’entreprise par terre. C’est ce qui rend le projet Open Goldberg Variations si intéressant : il est la réponse au défi que Gould lançait il y a plus de 40 ans. C’est la prochaine étape de l’évolution de l’héritage musical qui va de JS Bach à nos jours en passant par Gould. Il invite chaque auditeur à devenir un participant à l’avenir de l’art de la musique.

Variations en open source majeure

Kimiko Ishizaka est l’artiste qui a franchi le pas de façon courageuse en tant que pianiste de concert pour transmettre une ressource culturelle en libérant à la fois le code source de l’œuvre de Bach (transcription professionnelle des partitions avec le logiciels libre MuseScore) et les données du concert lui-même (sous la forme d’un enregistrement audio) pour donner au public des expériences sans précédent à la fois de plaisir musical et du sentiment de liberté qui vient d’une action authentique. C’est-à-dire : l’action à créer ; l’action de manipuler à son gré ; l’action d’augmenter les biens communs en partageant ce dont on est passionné.

Revenons donc à la question initiale : la musique peut-elle être open source ? Ou plutôt, que peut-il advenir de la musique open source ? Les rencontres OHM 2013 viennent de conclure une semaine de « Observer, Modifier, Créer ». Un hacker qui s’y trouvait nous a proposé ses réflexions :

Un morceau de musique peut être considéré comme libre s’il y a un enregistrement de bonne qualité disponible sous une licence permissive (équivalent d’un binaire précompilé dans une distribution), et une partition de également bonne qualité, contenant toutes les instructions et les commentaires du compositeur original, disponible dans un format éditable et réutilisable, accompagné elle aussi d’une licence libre. Pensez-y comme si c’était le code source d’un logiciel que vous pourriez utiliser, compiler, interpréter, modifier, copier etc.

Le premier projet important destiné à mettre les œuvres de Jean-Sébastien Bach en open source a été Open Goldberg Variations (« Bach to the future ») avec l’aide du financement participatif. Vous pouvez télécharger les enregistrements audio sans perte de qualité réalisés par Kimiko Ishizaka, et la partition aux formats MuseScore ou XML, tout cela étant dans le domaine public.

C’est un très bon début. Ce qui en ferait un encore meilleur début serait que ça soit une communauté active qui l’accomplisse. Une communauté de personnes de divers horizons qui jouent chacun des rôles importants, qui travaillent ensemble pour créer ce que personne ne peut faire seul. Et un excellent environnement qui permette de publier sur une base fiable des œuvres commercialement rentables et approuvées par la critique.

Un tel environnement est The Miraverse, qui constitue l’essence de l’expérience des studios de Manifold Recording. D’un côté de la vitre de la cabine de mixage se trouve le studio (photo d’ouverture du billet ci-dessus), et de l’autre côté une console analogique API Vision qui peut enregistrer jusqu’à 64 pistes avec Ardour (ci-dessous).

CR_Ardour2.jpg

Ces environnements sont complétés par un troisième, le « Studio Annex », qui met à disposition une console Harrison Trion (qui tourne sous Linux) et permet de produire divers formats de son multicanal, avec jusqu’à 96 canaux audio à 96 kHz.

ACR-SideVideo.jpg

Dans ces studios, de la musique open source peut être enregistrée, auditionnée, et mixée avec le meilleur équipement audio, le meilleur environnement acoustique, et des logiciels open source. L’auditeur participant peut faire l’expérience d’un enregistrement (processus stupéfiant en lui-même) et des choix créatifs qui sont possibles une fois que le processus de mixage commence.

Souhaitez-vous devenir un auditeur participatif ? Kimiko Ishizaka s’apprête à faire une tournée en Europe et en Amérique du nord en prévision de son enregistrement du « Clavier bien tempéré ». Le premier concert aura lieu au festival Beethoven de Bonn en Allemagne le 24 septembre ; puis Mme Ishizaka se produira à Prague (25 et 26 septembre), Munich (30 septembre), Vienne, Hambourg, puis Bonn etc. (calendrier complet à lire au bas de la page http://opensource.com/life/13/8/open-music-open-goldberg).

Comme n’importe quel autre projet open source, votre intérêt et votre participation peuvent en faire non seulement un succès, mais un exemple pour l’industrie. C’est notre but. En participant à une de ces représentations, en participant à la campagne KickStarter Twelve Tones of Bach (ce qui est une façon d’acheter des tickets pour ces représentations), en participant à la tournée (le 3 novembre), vous pouvez pleinement profiter de votre propre expérience de la musique et des perspectives de l’enregistrement, tout en aidant le projet et ses acteurs à atteindre des objectifs plus ambitieux. Nous espérons vous voir cet automne… et encore souvent à l’avenir !

04 Sep 21:47

Comment Isaac Asimov voyait 2014 en 1964

by aKa

En 1964, le célèbre écrivain de science-fiction Isaac Asimov visitait l’Exposition Universelle de New York. Il se mit alors à imaginer, dans l’article traduit ci-dessous, ce qu’il pourrait bien advenir dans 50 ans, c’est-à-dire en 2014.

Force est de constater que bon nombre de ses hypothèses étaient prémonitoires…


Abode of Chaos - CC by


Visite de l’Exposition Universelle de New York de 2014

Visit to the World’s Fair of 2014

Isaac Asimov - 16 août 1964
(Traduction : Jeff, hilde, k, anonyme1, karec, Sky, pyro, aKa, Chloé, MalaLuna, tchevengour, simplementNat, bl0fish, pyro, @zessx, Underrated, lordgun, Beij, goofy, greygjhart, HgO, zer0chain, GregR, Asta + anonymes)

L’Exposition Universelle de New York de 1964 est consacrée à « La paix par la compréhension » (NdT : Peace Through Understanding). L’aperçu qu’elle donne du monde de demain écarte l’hypothèse d’une guerre nucléaire. Et pourquoi pas ? Si une telle guerre a lieu le futur ne mérite pas d’être évoqué. Laissons donc les missiles sommeiller éternellement dans leurs silos et observons ce qui pourrait advenir d’un monde qui ne serait pas atomisé.

Ce qui est à venir, du moins au travers de la lunette de l ‘Exposition, est merveilleux. Le futur vers lequel l’Homme se dirige est vu avec un espoir plein d’entrain, nulle part mieux montré qu’au pavillon de la General Electric. Ici les spectateurs tourbillonnent parmi quatre scènes, chacune contenant des mannequins souriants, quasiment vivants, qui bougent et parlent avec une telle aisance que, pendant près d’une minute et demie, ils vous convainquent qu’ils le sont vraiment.

Ces scènes, qui se déroulent en 1900, 1920, 1940 et 1960, montrent les progrès des appareils électriques et les changements qu’ils apportent à la vie quotidienne. J’y ai pris énormément de plaisir et je regrette seulement qu’ils n’en aient pas imaginé de semblables dans le futur. Que sera la vie, par exemple en 2014, dans 50 ans ? À quoi ressemblera l’Exposition Universelle de 2014 ?

Je ne sais pas, mais je peux essayer de deviner.

Une pensée qui me traverse l’esprit est que les hommes continueront à fuir la nature pour créer un environnement plus à leur convenance. D’ici 2014 les panneaux électroluminescents seront communément utilisés. Les murs et les plafonds brilleront doucement, dans une variété de teintes qui changera à la pression d’un bouton.

Les fenêtres seront devenues archaïques, et quand bien même présentes elles seront polarisées pour bloquer les rayons du soleil les plus durs. Le degré d’opacité du verre étant même fait pour varier automatiquement selon l’intensité de la lumière.

On trouve une maison souterraine à l’Exposition qui semble être un signe du futur. Si ses fenêtres ne sont pas polarisées, elles peuvent en revanche changer le « paysage » en modifiant l’éclairage. Les maisons en périphérie des villes, avec variateur de température, air filtré, et contrôle de la lumière, seront monnaie courante, libérées ainsi des vicissitudes de la météo. À l’Exposition Universelle de 2014, le « Futurama » de General Motors (NdT : attraction populaire réalisée par General Motors pour l’Exposition Universelle de 1939) présentera sans doute des visions de cités souterraines pleines de potagers sous lumière artificielle. La surface ainsi gagnée, expliquera General Motors, sera dédiée à l’agriculture à grande échelle, aux pâturages et parcs, avec moins d’espace gaspillé pour l’occupation humaine.

Des appareils continueront de soulager l’humanité des travaux fastidieux. Les cuisines seront conçues de manière à préparer des « auto-repas », chauffant l’eau et la transformant en café ; grillant le pain et le bacon ; cuisant, pochant ou brouillant des œufs, etc. Le petit-déjeuner sera « commandé » la veille afin d’être prêt à l’heure spécifiée le lendemain matin. Des repas et dîners entiers, avec des aliments semi-préparés, seront conservés au congélateur jusqu’au moment de leur préparation. Je soupçonne, cependant, que même en 2014, il sera bon d’avoir un petit coin dans la cuisine où des repas plus individuels pourront être préparés à la main, en particulier lorsque l’on reçoit des invités.

En 2014 les robots ne seront ni courants ni très élaborés mais ils existeront. L’exposition IBM n’a pas de robots aujourd’hui mais elle est dédiée aux ordinateurs, qui sont montrés dans toute leur incroyable complexité, notamment dans la tâche de traduction du russe vers l’anglais. Si les machines sont si intelligentes aujourd’hui, qui sait ce qu’elles feront dans 50 ans ? Ce seront des ordinateurs beaucoup plus miniaturisés qu’aujourd’hui, qui serviront de « cerveaux » aux robots. L’une des principales attractions du pavillon IBM à l’Exposition Universelle de 2014 pourrait être une femme de ménage robotique, gauche et grosse, bougeant lentement mais cependant capable de ramasser, ranger, nettoyer et manipuler divers appareils. Cela amusera sans aucun doute les visiteurs de disperser des débris sur le sol afin de voir cette ménagère robotique les enlever maladroitement et les classer entre « à jeter » et « mettre de côté ». (Des robots jardiniers auront aussi fait leur apparition.)

General Electric à l’Exposition Universelle de 2014 montrera des films en 3D de ses « Robots du Futur » élégants et profilés et ses appareils de ménage intégrés effectuant toutes les tâches promptement. (Il y aura une file d’attente de trois heures pour voir le film, il y a certaines choses qui ne changent jamais.)

Bien sûr les appareils de 2014 n’auront besoin d’aucun câble électrique. Ils seront alimentés par des batteries longue durée à énergie nucléaire (radioisotope). Le combustible ne sera pas cher car il sera le sous-produit des centrales à fission qui, en 2014, fourniront plus de la moitié des besoins énergétiques de l’humanité. Mais, une fois ces batteries à isotopes épuisées, elles ne seront éliminées que par des agents autorisés par le fabricant.

Et une ou deux centrales expérimentales à fusion nucléaire existeront déjà en 2014 (même aujourd’hui, une petite mais véritable fusion nucléaire est présentée régulièrement par la General Electric, à l’Exposition Universelle de 1964). De grandes centrales d’énergie solaire seront aussi en fonction dans plusieurs zones désertiques et semi-désertiques telles que l’Arizona, le Néguev ou le Kazakhstan. Dans les zones plus fréquentées, mais plus nuageuses et brumeuses, l’énergie solaire sera moins efficace. Une présentation à l’Exposition Universelle de 2014 montrera des modèles de centrales énergétiques dans l’espace, collectant les rayons solaires à l’aide d’immenses paraboles, renvoyant l’énergie ainsi collectée sur Terre.

Le monde d’ici 50 ans aura encore rétréci. À l’Exposition Universelle de 1964, la présentation de General Motors décrit, entre autres choses, des « usines de construction de routes » dans les tropiques et, plus près de chez nous, des autoroutes surchargées avec de long bus se déplaçant sur des voies centrales réservées. Il y a de fortes chances que l’utilisation de routes, du moins dans les régions du monde les plus avancées, aura passé son pic en 2014 ; l’intérêt se portera alors de plus en plus sur les transports réduisant au maximum le contact avec la surface terrestre. Il y aura l’aviation, bien sûr, mais les transports terrestres seront de plus en plus aériens (environ 50 cm au-dessus du sol). Les visiteurs de l’Exposition Universelle de 1964 peuvent s’y déplacer dans un « hydroptère », qui s’élève sur quatre pylônes et glisse sur l’eau avec un minimum de frictions. Ceci n’est sûrement que temporaire. En 2014, les quatre pylônes auront été remplacés par quatre jets d’air comprimé afin que le véhicule n’ait plus aucun contact avec les surfaces liquides ou même solides.

Les jets d’air comprimé serviront également à soulever les véhicules terrestres au-dessus des routes, ce qui, entre autres choses, réduira les problèmes de pavage. Une terre damée ou une pelouse tondue feront tout aussi bien l’affaire. Les ponts auront aussi une moindre importance dès lors que les voitures seront capables de traverser l’eau à l’aide de leurs jets d’air comprimé, bien que les arrêtés locaux décourageront cette pratique.

Beaucoup d’efforts seront consacrés à la conception de véhicules munis de « cerveaux-robot » qui pourront être configurés pour une destination particulière et s’y rendront sans l’interférence des lents réflexes d’un conducteur humain. Je soupçonne qu’une des attractions majeures de l’exposition 2014 sera la balade sur des petites voitures robotisées qui manœuvreront dans la foule 50 cm au-dessus du sol, avec dextérité et en s’évitant automatiquement.

Pour les voyages de courte distance, des trottoirs mobiles surélevés (avec des bancs de chaque côté, des places debout au centre) feront leur apparition dans les sections du centre-ville. Le trafic continuera (sur plusieurs niveaux dans certains endroits) uniquement parce que tout les parkings seront hors voirie et qu’au moins 80 % des livraisons par camion seront effectuées dans des centres précis en périphérie de la ville Des tubes à air comprimé transporteront biens et matériaux sur des distances locales, et les aiguillages qui achemineront les cargaisons spécifiques vers les destinations correspondantes seront une des merveilles de la ville.

Les communications se feront par visioconférence et vous pourrez à la fois voir et entendre votre interlocuteur. L’écran, en plus de vous permettre de voir les gens que vous appelez, vous permettra également daccéder à des documents, de voir des photographies ou de lire des passages de livres. Une constellation de satellites rendra possible les appels directs vers n’importe quel point de la terre, même la station météorologique en Antarctique (visible dans toute sa splendeur glacée sur le stand de General Motors en 64).

D’ailleurs, vous serez en mesure de joindre quelqu’un sur les colonies sélènes (sur la Lune), pour lesquelles General Motors présente une gamme de véhicules impressionnants (sous forme de maquettes) avec de larges pneus tendres prévus pour les terrains accidentés qui peuvent exister sur notre satellite naturel.

Quantités de conversations simultanées entre la Terre et la Lune pourront être facilement traitées par des faisceaux laser modulés, lesquels seront très faciles à manipuler dans l’espace. Sur Terre, par contre, les rayons laser devront être enfermés dans des tubes en plastique pour éviter les interférences atmosphériques, problème sur lequel les ingénieurs continueront à travailler.

Converser avec la Lune sera simple mais inconfortable à cause des 2,5 secondes de délai entre les questions et les réponses (le temps nécessaire pour que la lumière fasse l’aller-retour). Le même genre de communication avec Mars prendra 3,5 minutes même lorsque Mars est au plus près de la Terre. Cependant, en 2014, seules des sondes téléguidées s’y seront posées, mais une expédition habitée sera en préparation et, dans le Futurama de 2014, on pourra trouver une maquette de colonie martienne élaborée.

Quant à la télévision, des murs-écrans auront pris la place de l’équipement habituel, mais des cubes transparents feront leur apparition, dans lesquels la vision tri-dimensionnelle sera possible. En fait, une des présentations populaires à l’Exposition Universelle de 2014 sera une télévision 3D, grandeur nature, dans laquelle on verra des spectacles de ballet. Le cube tournera lentement pour montrer la vision sous tous les angles.

Nous pouvons poursuivre indéfiniment cette joyeuse extrapolation, mais tout n’est pas aussi rose.

Dans la file d’attente pour la présentation de la General Electric à l’Exposition Universelle de 1964, je me suis retrouvé face au menaçant panneau d’Equitable Life (NdT : une compagnie d’assurance américaine), égrenant l’augmentation de la population des États-Unis (plus de 191 000 000) d’une unité toutes les 11 secondes. Pendant le temps que j’ai passé à l’intérieur du pavillon de la General Electric, la population américaine a presque gagné 300 âmes, et la population mondiale environ 6 000.

En 2014, il est fort probable que la population mondiale sera de 6,5 milliards et que les États-Unis compteront 350 millions d’habitants. La zone de Boston à Washington, la plus dense de cette taille sur Terre, sera devenue une mégalopole avec une population de plus de 40 millions d’habitants.

La pression démographique va forcer l’urbanisation croissante des déserts et des régions polaires. Le plus surprenant, et d’une certaine manière le plus réconfortant, est que 2014 marquera le début des grands progrès dans la colonisation des plateaux continentaux. Le logement sous-marin sera prisé par les amateurs de sports nautiques, et encouragera sans aucun doute une meilleure exploitation des ressources maritimes, nutritives et minérales. La General Motors a exposé, dans sa présentation de 1964, une maquette d’hôtel sous-marin d’un luxe alléchant. L’Exposition Universelle de 2014 présentera des villes de fonds marins, avec des lignes de bathyscaphes transportant hommes et matériel dans les abysses.

L’agriculture traditionnelle aura beaucoup de difficultés à s’adapter. Des fermes se spécialiseront dans la culture de micro-organismes plus efficaces. Les produits à base de levures et d’algues transformées seront disponibles dans de multiples saveurs. L’Exposition Universelle de 2014 comportera un bar à algues, dans lequel des imitations de dinde et des pseudo-steaks seront servis. Ce ne sera pas mauvais du tout (si vous pouvez supporter ces prix élevés), mais il y aura une barrière psychologique importante à lever face à une telle innovation.

En 2014 la technologie continuera à suivre la croissance démographique au prix d’immenses efforts et avec un succès incomplet. Seule une partie de la population mondiale profitera pleinement de ce monde gadgétisé. L’autre, plus grande encore qu’aujourd’hui en sera privée et, en attendant de pouvoir accéder à ce qui se fait de mieux, matériellement parlant, sera en retard comparée aux parties du monde les plus développées. Ils auront même régressé.

La technologie ne peut plus continuer à suivre la croissance démographique si celle-ci reste incontrôlée. Pensez au Manhattan de 1964, avec une densité de population de 32 000 habitants au kilomètre carré la nuit, et de plus de 40 000 pendant la journée de travail. Si la Terre entière, y compris le Sahara, l’Himalaya, le Groenland, l’Antartique et chaque kilomètre carré des fonds marins, au plus profond des abysses, était aussi peuplée que Manhattan à midi, vous conviendrez sûrement qu’aucun moyen pour subvenir à une telle population (et encore moins pour lui apporter un certain confort) ne serait envisageable. En fait, ces moyens deviendraient insuffisants bien avant que ce Manhattan géant ne soit atteint.

Et bien, la population de la Terre approche maintenant des 3 milliards et double tous les 40 ans. Si cette croissance se confirme, le monde deviendra un Manhattan géant d’ici seulement 500 ans. Toute la Terre ne sera qu’une unique ville comme Manhattan d’ici l’année 2450 et la société s’écroulera bien avant cela !

Il n’y a que deux façon d’éviter cela: (1) élever le taux de mortalité (2) baisser le taux de natalité. Indubitablement, le monde de 2014 se sera mis d’accord sur la deuxième méthode. En effet, l’utilisation croissante des appareils mécaniques pour remplacer les cœurs et les reins défaillants, et le soin de l’arteriosclérose et de la rupture d’anévrisme auront repoussé le taux de mortalité encore plus loin et auront rehaussé l’espérance de vie dans certaines parties du monde à l’âge de 85 ans.

Il y aura, par conséquent, une propagande mondiale en faveur du contrôle de la natalité par des méthodes rationnelles et humaines et, en 2014, elles auront sans aucun doute de sérieux effets. L’inflation démographique aura sensiblement baissé, je suppose, mais pas suffisamment.

L’une des présentations les plus importantes de l’Exposition de 2014 sera donc une série de conférences, de films et de matériel documentaire au Centre de Contrôle de la Population Mondiale (pour adultes uniquement ; projections spéciales pour les adolescents).

La situation empirera du fait des progrès de l’automatisation. Seuls quelques emplois de routine persisteront pour lesquels les machines ne remplacent pas l’être humain. En 2014 l’humanité leur sera asservie. Les écoles devront être réorientées dans cette direction. Une partie de la présentation de la General Electric d’aujourd’hui est une école du futur dans laquelle les réalités actuelles comme la télé en circuit-fermé et les bandes pré-enregistrées facilitent le processus d’apprentissage. Cependant, ce ne sont pas uniquement les techniques qui évolueront dans l’enseignement, mais également les contenus. Tous les élèves de l’enseignement secondaire apprendront les fondamentaux de la programmation, deviendront des as en arithmétique binaire, et seront formés à la perfection à l’utilisation des langages informatiques qui auront été développés, comme le Fortran (NdT pour « Formula Translator », un langage utilisé en calcul scientifique).

Même ainsi l’humanité souffrira sévèrement d’ennui, un mal se propageant chaque année davantage et gagnant en intensité. Cela aura de sérieuses conséquences aux niveaux mental, émotionnel et social. La psychiatrie sera de loin la spécialité médicale la plus importante en 2014. Les rares chanceux qui auront un travail créatif seront la vraie élite de l’humanité, car eux seuls feront plus que servir une machine.

L’hypothèse la plus sombre que je puisse faire pour 2014 est que dans une société de loisirs forcés, le mot travail sera le plus valorisé du vocabulaire !

Crédit photo : Abode of Chaos (Creative Commons By)

04 Sep 21:34

MySQL Workbench 6.0.7 GA Released

by akojima

Dear MySQL users,

The MySQL developer tools team at Oracle is excited to announce the availability of MySQL Workbench 6.0.7, a maintenance release for the new MySQL Workbench 6.0

MySQL Workbench 6.0 is the new major update of the GUI Development and Administration tool for MySQL. This version contains more than 30 new features and a redesigned, more modern UI. Over 200 enhancement requests and bugs filed by the community have been addressed since version 5.2.47. This release fixes over 20 bugs encountered since version 6.0.6

Improvements in MySQL Workbench 6.0:

  • a new redesigned Home screen
  • the SQL Editor and Server Administration UIs were merged into a single connection specific interface, allowing for quick access to administration features while simplifying the location of specific features
  • improved model Synchronization, lets you compare and update your EER model or database with ALTER scripts and properly handle corner cases involving objects renamed externally or sync schemas with different names
  • improved support for model printing to PDF files
  • all new Schema Inspector, gives you a detailed overview of all objects in your schemas, plus access to table maintenance operations such as ANALYZE and OPTIMIZE TABLE
  • table data search, lets you perform a text search on any number of tables and schemas for rows matching a given pattern
  • improved Server Status page, gives a quick summary of server status and configuration
  • cascaded DELETE statement generator, automatically performs the tedious task of generating DELETE statements for deleting a row referenced by foreign keys
  • new Migration Wizard support for SQL Anywhere and SQLite
  • several performance improvements

and much more. For a detailed overview of what’s new in MySQL Workbench 6.0, please visit:

http://dev.mysql.com/doc/workbench/en/wb-what-is-new.html

For the full list of bugs fixed in this revision, visit
http://dev.mysql.com/doc/relnotes/workbench/en/changes-6-0.html

For discussion, join the MySQL Workbench Forums:
http://forums.mysql.com/index.php?151

Download MySQL Workbench 6.0 now, for Windows, Mac OS X 10.6+, Oracle Linux 6, Fedora 18, Ubuntu 12.04 and Ubuntu 13.04 or sources, from:
http://dev.mysql.com/downloads/tools/workbench/

Quick links:

Downloadhttp://dev.mysql.com/downloads/tools/workbench/
Bugshttp://bugs.mysql.com
Forumshttp://forums.mysql.com/index.php?151

Read more about MySQL Workbench 6.0 and some of its features in these blog posts:

MySQL Workbench 6.0: What’s New

MySQL Workbench 6.0: Home Screen

Table Data Search

Database Migration from Sybase SQLAnywhere using MySQL Workbench

Model Synchronization Improvements

We will keep posting more about the new features in the coming days, make sure to check often!

the MySQL Workbench team

04 Sep 21:33

Sean Hull's 20 Biggest Bottlenecks that Reduce and Slow Down Scalability

by Todd Hoff

This article is a lightly edited version of 20 Obstacles to Scalability by Sean Hull (with permission) from the always excellent and thought provoking ACM Queue.

1. TWO-PHASE COMMIT

Normally when data is changed in a database, it is written both to memory and to disk. When a commit happens, a relational database makes a commitment to freeze the data somewhere on real storage media. Remember, memory doesn't survive a crash or reboot. Even if the data is cached in memory, the database still has to write it to disk. MySQL binary logs or Oracle redo logs fit the bill.

With a MySQL cluster or distributed file system such as DRBD (Distributed Replicated Block Device) or Amazon Multi-AZ (Multi-Availability Zone), a commit occurs not only locally, but also at the remote end. A two-phase commit means waiting for an acknowledgment from the far end. Because of network and other latency, those commits can be slowed down by milliseconds, as though all the cars on a highway were slowed down by heavy loads. For those considering using Multi-AZ or read replicas, the Amazon RDS (Relational Database Service) use-case comparison at http://www.iheavy.com/2012/06/14/rds-or-mysql-ten-use-cases/ will be helpful.

Synchronous replication has these issues as well; hence, MySQL's solution is semi-synchronous, which makes some compromises in a real two-phase commit.

2. INSUFFICIENT CACHING

...
28 Aug 20:04

Reddit: Lessons Learned from Mistakes Made Scaling to 1 Billion Pageviews a Month

by Todd Hoff

Jeremy Edberg, the first paid employee at reddit, teaches us a lot about how to create a successful social site in a really good talk he gave at the RAMP conference. Watch it here at Scaling Reddit from 1 Million to 1 Billion–Pitfalls and Lessons.

Jeremy uses a virtue and sin approach. Examples of the mistakes made in scaling reddit are shared and it turns out they did a lot of good stuff too. Somewhat of a shocker is that Jeremy is now a Reliability Architect at Netflix, so we get a little Netflix perspective thrown in for free.

Some of the lessons that stood out most for me: 

  • Think of SSDs as cheap RAM, not expensive disk. When reddit moved from spinning disks to SSDs for the database the number of servers was reduced from 12 to 1 with a ton of headroom. SSDs are 4x more expensive but you get 16x the performance. Worth the cost. 
  • Give users a little bit of power, see what they do with it, and turn the good stuff into features. One of the biggest revelations for me was how much reddit learns from its users and how much it relies on users to make the site run smoothly. Users are going to tell you a lot of things you don’t know. For example, reddit gold started as a joke in the community. They made it a product and users love it.
  • It’s not necessary to build a scalable architecture from the start. You don’t know what your feature set will be when you start out so you want know what your scaling problems will be. Wait until your site grows so you can learn where your scaling problems are going to be.
  • Treat nonlogged in users as second class citizens.  By always giving logged out always cached content Akamai bears the brunt for reddit’s traffic. Huge performance improvement. 

There's lots more. Here's my gloss of the talk where we learn many lessons from the mistakes made in the early days of scaling reddit:

28 Aug 18:53

The Ben Affleck Conundrum [Comic]

by Geeks are Sexy

ben

For those who aren’t aware of it yet, Ben Affleck will be the new Batman. Hey, who knows, the guy might surprise us! Let’s all have a little faith here, okay geeks? :)

[Source: Dorkly]

28 Aug 07:04

Etats-Unis : Prism plante le cloud

Les révélations sur le programme de surveillance Prism commencent à peser sur les entreprises technologiques américaines.
26 Aug 06:33

No More Notification Ads and Icon Ads in Android Apps

by Alex Chitu
Here's a Google Play policy change that will make a lot of Android users happy: Android apps will no longer be able to install home screen icon for third-party services and show notification ads.

From Google: "Apps and their ads must not add homescreen shortcuts, browser bookmarks, or icons on the user's device as a service to third parties or for advertising purposes. Apps and their ads must not display advertisements through system level notifications on the user's device, unless the notifications derive from an integral feature provided by the installed app. (e.g., an airline app that notifies users of special deals, or a game that notifies users of in-game promotions)."

The Google Search app will be able to show Google Now ads for nearby businesses, but a random game won't be able to show ads for third-party services.

There are a lot of Android apps like TrustGo Ad Detector or Lookout Ad Network Detector that show warnings if you install apps that use ad services like AirPush. "Smartphone usage has skyrocketed, and some advertisers have begun to experiment with aggressive, new techniques to display ads on mobile devices. This includes pushing ads to the standard Android notification bar, dropping generically designed icons on the mobile desktop, and modifying browser settings like bookmarks or the default homepage," explains Lookout.

24 Aug 09:08

How and why to use whom in a sentence

by Matthew Inman
How and why to use whom in a sentence

This is a grammar comic about the proper usage of who versus whom.

View
23 Aug 06:34

But Please do Not Feed the Designers

But Please do Not Feed the Designers

Submitted by: Unknown

Tagged: sign , zoo , singles , funny , g rated , dating