Archive

Archive for the ‘livre’ Category

Core memory

11 janvier 2009 Commentaires fermés

Découvert sur « le dernier des blogs » un livre contenant de magnifiques photos de vieux ordinateurs prises au « Computer History Museum« , un site plein de choses intéressantes pour les vieux nostalgiques dans votre mon genre.

référence : Mark Richards et John Alderman « Core Memory: A Visual Survey of Vintage Computers », Chronicle Books 2007, ISBN 978-0811854429 (disponible sur Amazon)

Catégories :histoire, livre, photos

informatique = IT + CS

10 janvier 2008 2 commentaires

« Est-ce que l’informatique de demain sera hébergé uniquement à distance ? »

C’est la question que pose Sandrine à propos du livre « The Big Switch » de Nicolas Carr, discuté sur le blog de Louis Naugès.

Voici mon (humble) avis sur la question :

Comme souvent, nos collègues de l’IT posent l’équation « informatique=IT » et donc « futur de l’informatique = futur de l’IT ». La tendance « informatique=web » est comparable, quoique moins arrogante.

Désolé, mais : informatique > IT + web

Il existe de nombreuses applications qui nécessitent des processeurs puissants accessibles avec une (très) large bande passante, donc localement : CAO, calcul scientifique, jeux 3D ! C’est le marché de ces applications qui sert de locomotive à l’industrie du hardware et permet de vous proposer tous les 18 mois une machine 2x plus puissante que la précédente. En hébergeant tout sur le « cloud », Intel ne vendrait ses processeurs qu’à Google et aux autres fournisseurs, et plus aux entreprises pour lesquelles un  PC d’il y a 10 ans serait suffisant…

La tendance est en réalité inverse : les machines perso et bureau étant très peu utilisée (sauf quand on joue…), elles peuvent être utilisées pour des applications réparties. C’est ainsi que le réseau formé par les consoles PlayStation 3 faisant tourner le programme Folding@home dépasse la puissance de calcul de l’ordinateur le plus puissant du monde, le BlueGene/L !

Dans la même veine, à quoi bon faire des disques durs de 500 Gb par millions si les fournisseurs de services web stockent nos vidéos (piratées) à un seul exemplaire, voire zéro ? les réseaux P2P sont en train de réaliser une fonctionnalité très recherchée : l’immortalité des données, et leur indépendance du support grâce à une forte redondance sur un réseau distribué.

Pour quiconque n’a pas courbé ses cours d’architecture hardware pour approfondir sa maitrise du SQL, le web s’est simplement glissé sous le disque dur en devenant la couche la plus basse de la hiérarchie mémoire. La propulser au rang de maitre du monde informatique, c’est mettre la charrue avant les boeufs.

informatique = IT + CS
CS = COMPUTER SCIENCE !

Catégories :futur, Google, IT, livre, web