Parcours en photo numérique

Mon exemplaire du Canon EOS 5D Mark II est commandé depuis longtemps… Alors en attendant la livraison dans quelques semaines, voici un petit tour des appareils photo numériques que j’ai utilisés jusqu’alors. Je vais suivre la même approche que pour mon parcours en téléphonie mobile. C’est-à-dire : une liste avec quelques souvenirs. Cette fois-ci, je vais aussi préciser le contexte quand il s’agira d’appareils que je n’ai pas gardés (en général pour des tests de deux semaines).

 

De 1990 à 2000 :
  • appareil photo d’environ 1 m³ que j’avais construit au tout début des années 90 à partir d’une caméra de surveillance, d’une carte d’acquisition (DGI-1+), d’un PC, d’un pilote que j’avais développé en assembleur et d’un logiciel de pilotage (les photos faisaient 256 sur 255 pixels en 64 niveaux de gris) ;
  • Apple QuickTake 150 (utilisé pour un travail sur la ville de Noyon, si simple mais aussi tellement limité) ;
  • Fujifilm MX-500 (un rendu très correct pour un compact numérique de cette époque).

 

De 2000 à 2004 (pour des tests) :

  • Reflex :
    • Canon EOS-1Ds (11 MP sur un capteur 24/36 dans un boîtier exemplaire en 2002, mais une ergonomie un peu dure et un prix énorme),
    • Fujifilm FinePix S2 Pro (attirant sur le papier, j’ai été déçu par plusieurs problèmes de rendu),
    • Olympus E10 (visée reflex, mais objectif non interchangeable, rendu correct, mais appareil trop lent),
    • Sigma SD9 (une netteté impressionnante, mais peu de pixels, des problèmes de rendus, un autofocus trop limité, etc.) ;
  • Bridges :
    • Nikon CoolPix 5700 (rendu agréable et gros zoom, mais autofocus trop lent et autonomie beaucoup trop faible),
    • Sony DSC-F707 (boîtier solide et grande autonomie, mais quelques problèmes de rendu),
    • Sony DSC-F717 (rendu en progrès, mais toujours pas de format RAW) ;
  • Compacts :
    • Canon PowerShot A60 (une affaire, mais un boîtier trop fragile),
    • Canon PowerShot A95 (une affaire plus solide, donc une très bonne affaire),
    • Canon PowerShot G2 (prometteur, mais rendu brouillon),
    • Canon PowerShot G3 (un excellent compact pour l’époque, permettant même le RAW),
    • Casio QV4000 (pas cher, mais rendu trop mou et trop bruité),
    • Olympus C-3020 Zoom (rendu propre, mais réglages trop limités),
    • Olympus C-5050 Zoom (complet avec même le RAW, mais boîtier trop lent et rendu trop marqué) ;
  • Ultracompact :
    • Digital Dream Espion Xtra (mauvaise qualité générale, un gadget).

 

De 2000 à 2004 (pour mon propre usage) :

  • Nikon D100 (c’était pour moi la redécouverte du reflex en 2002, le D100 a été un fantastique compagnon de route, juste trop lent en RAW) ;
  • Sony CyberShot DSC-U10 (un ultracompact qui m’a été très utile avant que les téléphones n’intègrent la photo).

 

Depuis 2005 (pour des tests) :
  • Canon 350D (un rapport qualité/prix impressionnant) ;
  • Canon 400D (encore très à l’aise aujourd’hui) ;
  • Nikon D50 (solide et pas cher, permet encore de travailler en RAW à 6 MP) ;
  • Nikon D80 (sérieux, toujours très pertinent) ;
  • Nikon D200 (un appareil à la construction splendide que je n’ai pas acheté, au profit du 5D).
Depuis 2005 (pour mon propre usage) :
  • Canon EOS 5D (je l’avais choisi pour son grand capteur, sa faible profondeur de champ, ses hautes sensibilités, sa dynamique, je n’ai pas été déçu et le 5D va continuer à m’accompagner, comme second boîtier).

Bientôt :

  • Canon EOS 5D Mark II (j’ai hâte de tester ses hautes sensibilités et son mode vidéo).

 

Mise à jour (août 2009) : j’utilise donc maintenant un Canon EOS 5D Mark II et j’ai par ailleurs testé les Canon EOS 1000D et 500D dont j’ai acheté des exemplaires pour mes étudiants.
Mise à jour (2010) : le Canon EOS 550D m’accompagnera comme second appareil pour la vidéo.
Mise à jour (2012) : le Canon EOS 5D Mark III devient mon appareil principal.

 

Voici une photo que j’ai prise avec un Apple QuickTake 150 datant de 1995 à l’occasion d’un travail sur la ville de Noyon :
017bibliotheque

Ma pratique des modes en ligne des jeux vidéo

Après une période de sessions de jeu en réseau local chez des amis au début des années 90, j'ai naturellement été amené à tester quelques jeux en ligne sur PC. Mais comme je joue surtout sur console, c'est sur la Dreamcast et son modem à 33,6 Kb/s que j'ai vraiment exploré divers types de jeux en ligne. J'ai notamment de grands souvenirs de ChuChu Rocket! et de Phantasy Star Online. L'idée était multiple : trouver d'autres joueurs et vivre ce type d'expérience à distance, mais aussi entrer virtuellement en contact avec d'autres personnes pour le cas de Phantasy Star Online. Ensuite, comme je participais à la création d'un studio de développement de jeu de sport multijoueur sur le Web, j'ai constaté de l'intérieur la différence de dynamique entre une intelligence artificielle d'un jeu et une communauté de joueurs. À l'arrivée de la carte réseau de la PlayStation 2, j'ai surtout utilisé les modes en ligne pour les jeux de course. Au début, c'était juste pour essayer. Et par la suite, j'y allais avec un objectif précis : rencontrer des joueurs expérimentés. Le jeu contre la console est généralement prévisible en terme de difficulté. D'où un double intérêt du jeu en ligne dans ce contexte : des concurrents aux niveaux très variés et la possibilité de trouver des joueurs particulièrement doués. Aujourd'hui, j'ai la même approche sur PS3 avec le même genre de jeux. Je commence par exemple à jouer à Pure en ligne et je me rends clairement compte que je n'ai pas assez d'heures de jeu derrière moi. Reste une dimension qui j'espère s'étendra à ma pratique des jeux en ligne : la matérialisation des relations virtuelles, comme cela peut se produire avec le Web. En effet, je n'ai pas encore rencontré physiquement une personne que j'aurais connue en jouant en ligne. Mais cela devrait rapidement évoluer avec l'élargissement du public des jeux vidéo et les nouvelles plates-formes de jeu mettant en avant les relations entre les joueurs.

Voici une copie d'écran de mes premiers pas dans Phantasy Star Online (prise en 2001 à l'occasion de la rédaction de mon premier livre sur les jeux vidéo) :

016phantasystaronline

Canon EOS 5D Mark II : le choix évident pour moi

Mes usages d’un appareil photo numérique m’avaient conduit, en 2005, à préférer le Canon EOS 5D au Nikon D200. Son capteur 24 sur 36 mm a beaucoup compté dans ce choix. Ayant eu avant un Nikon D100, j’aurais pu passer au D200 pour garder mes objectifs. Mais la qualité des images du 5D à 1 600 ISO correspondait à mes besoins, en particulier pour les photos de concerts. Les possibilités du 5D en terme de profondeur de champ me conduisaient aussi vers cet appareil.

Récemment, Nikon a sorti un reflex numérique équipé d’un capteur 24 sur 36 mm, le Nikon D700. J’aurais donc pu revenir vers Nikon. Mais… D’une part, j’ai maintenant de très bons objectifs pour les reflex Canon. Et d’autre part, la sortie du successeur du 5D semblait imminente. Effectivement, le Canon EOS 5D Mark II a été annoncé aujourd’hui. Ce sera mon prochain appareil photo. Je développe un peu le sujet sur NouvelleProduction.net :
Le Nikon D100 a été mon appareil principal pendant trois ans : de 2003 à 2005. Le Canon EOS 5D l’aura aussi été : de 2005 à 2008. D’où cette question : vais-je garder le Canon EOS 5D Mark II comme appareil principal jusqu’en 2010 ?…
Voici une photo du Canon EOS 5D :

0155d

Voir aussi : le récapitulatif.

Mes usages actuels d’un téléphone

Dans l'une de mes notes précédentes, j'ai expliqué pourquoi je n'avais pas encore acheté d'iPhone 3G, au départ à cause du manque d'une fonction d'enregistrement vidéo en standard. Mon intérêt certain pour l'iPhone 3G était principalement dû à quatre facteurs :
  1. J'aimerais remplacer mon téléphone actuel, un Nokia E61i, au profit d'un modèle s'intégrant plus facilement dans mon environnement de travail (très orienté Google), proposant les dernières technologies (notamment un GPS) et venant remplacer mon iPod.
  2. J'utilise de nombreux produits Apple et j'en suis globalement très satisfait (en particulier Mac OS X et les logiciels pour le grand public comme pour les professionnels).
  3. J'utilise iTunes qui synchronise ma musique et mes podcasts avec mon iPod.
  4. La synchronisation proposée via le service MobileMe m'intéressait.
  5. Je n'avais pas acheté le premier iPhone (à cause de la même raison de départ).

Mais voilà, je n'ai toujours pas d'iPhone dans la poche. Alors, puisque j'utilise beaucoup les services de Google, j'attends la sortie des premiers téléphones équipés de son système, Android. Et en attendant, c'est l'occasion de faire le tour de mes usages d'un téléphone. Ces usages sont assez nombreux depuis que la convergence numérique a réuni dans ce type d'appareil la plupart des fonctions des autres objets électroniques que l'on peut transporter avec soi. À ce niveau, mon téléphone précédent, un Sony Ericsson P990i (voir illustration ci-dessous), allait un peu plus loin que le Nokia E61i (par exemple : son écran tactile me permettait de faire des schémas au stylet). Je vais donc lister mes usages en me basant sur les utilisations de ces deux téléphones. Pour terminer cette note, je ferai un petit point sur mes deux derniers téléphones et sur ce que j'attends du prochain.

Voici mes usages principaux (je mets entre parenthèses des indications sur ce que j'utilise en ce moment) :
  • lire et écrire des e-mails (Gmail for mobile) ;
  • consulter mon agenda (données synchronisées avec Google Calendar via Spanning Sync et iSync, car iCal seul ne prend pas en compte les événements que j'avais importés, justement depuis iCal…) ;
  • consulter mon carnet d'adresses (données synchronisées avec les contacts de Gmail via le carnet d'adresses de Mac OS X et iSync) ;
  • recevoir et passer des appels téléphoniques ;
  • prendre des notes écrites (les notes du téléphone, synchronisées avec les notes d'Apple Mail via FoneLink) ;
  • Web (Opera Mini, si possible en 3G ou Wi-Fi) : fils RSS (Google Reader) ;
  • prendre des photos et les visionner ;
  • tourner des vidéos et les visionner ;
  • visionner des fichiers au format DivX (DivX Player) ou en MP4 (Real Player livré en standard) ;
  • consulter l'heure et la date ;
  • éclairer dans le noir (Gmail for mobile et son interface blanche…).

Mes autres usages fréquents :
  • lire et écrire des SMS ;
  • Web : recherches (Google) ;
  • échanger des données en Bluetooth ;
  • sauvegarder le contenu du téléphone (FoneLink) ;
  • me réveiller le matin.

Mes usages occasionnels :
  • messagerie instantanée (Fring) ;
  • envoyer des notes sur un blog ou un microblog (principalement Fring sur Twitter) ;
  • Web : réseaux sociaux (surtout MySpace et Facebook), consulter des documents de bureautique (Google Docs) ;
  • faire des calculs ;
  • prendre des notes sonores ;
  • visionner des vidéos sur YouTube (emTube) ;
  • consulter des fichiers au format PDF ;
  • dessiner un schéma (sur le Sony Ericsson P990i) ;
  • jouer (S-Tris 2 par exemple).

Mes usages en déplacement :
  • Web : consulter des horaires de transport en commun (Voyages-sncf.mobi), consulter l'état de la circulation sur les routes (Infotrafic.com), consulter la météo (Meteo.fr) ;
  • calculer des itinéraires en transport en commun (MetrO) ;
  • me connecter à Internet depuis mon ordinateur portable (Launch2net sous Mac OS X) ;
  • être assisté pour la navigation sur les routes (Google Maps, par exemple en cas de panne de mon GPS) ;
  • faire des conversions de devises (WorldMate) ;
  • traduire des mots (dictionnaire Collins).

Mes usages rares :
  • lire et écrire des MMS ;
  • lire et écrire des documents de bureautique (Quickoffice) ;
  • écouter de la musique et des podcasts, visionner mes photos (données synchronisées avec iTunes et iPhoto via Nokia Multimedia Transfer, rare car je garde un iPod qui n'est pas limité à 2 Go comme mon téléphone équipé de sa carte mémoire) ;
  • écouter la radio (sur le Sony Ericsson P990i) ;
  • contrôler un serveur à distance (PuTTY).

Mes impressions sur le Sony Ericsson P990i :
  • équipement complet ;
  • large étendue fonctionnelle ;
  • interface trop touffue et trop lente ;
  • pas plus d'impressions car je n'ai pas gardé ce téléphone très longtemps (je l'ai renvoyé suite à un blocage complet du système).

Mes impressions sur le Nokia E61i :
  • équipement complet, j'aurais tout de même apprécié que l'écran soit tactile ;
  • solidité certaine ;
  • large étendue fonctionnelle ;
  • interface simple et rapide ;
  • page d'accueil personnalisable très efficace (applications courantes, événements, messages et réseaux) ;
  • touches d'accès rapide à certaines applications très pratiques ;
  • je dois utiliser trop d'outils pour synchroniser mes données (le carnet d'adresses de Mac OS X, Spanning Sync, iSync, FoneLink et Nokia Multimedia Transfer) ;
  • 2 Go sur une carte MicroSD, c'est assez pour les photos et les vidéos que je prends, mais insuffisant pour le contenu que j'ai dans iTunes ;
  • d'autres soucis sur le thème de la mémoire : le contenu du téléphone (application et données, hors carte mémoire) est effacé à chaque mise à jour, la mémoire pour lancer des applications est insuffisante ;
  • soucis d'utilisation : il faut sélectionner la connexion que l'on souhaite utiliser beaucoup trop souvent, il faut trop souvent fermer manuellement les connexions qui ne sont pas accessibles, l'outil Notes ne propose pas de recherche dans le texte, l'affichage des e-mails qui sont en texte riche est problématique dans l'application livrée en standard, je ne peux plus envoyer de données en Bluetooth depuis un moment (alors que les synchronisations en Bluetooth fonctionnent toujours), le téléphone plante parfois ;
  • soucis en particulier avec Gmail for mobile : le lancement de l'application devient trop long au fil du temps (réinstaller l'application corrige ce problème), tous les caractères ne sont pas accessibles (alors qu'ils le sont dans l'outil Notes, il faut faire des copier/coller).

Ce que j'attends de mon prochain téléphone :
  • qui me permette tous les usages listés précédemment, y compris la vidéo, l'utilisation directe de Gmail et la sauvegarde du contenu ;
  • qu'il me permette une synchronisation simple avec les services de Google (en particulier les contacts de Gmail et Google Calendar) ;
  • qu'il dispose d'un clavier Azerty physique ou virtuel ;
  • qu'il remplace mon iPod (synchronisation de ma musique, de mes podcasts, mais aussi de mes vidéos) ;
  • qu'il dispose d'une prise minijack standard ;
  • qu'il intègre un GPS ;
  • qu'il soit associé à une plate-forme de téléchargement d'applications et de jeux ;
  • qu'il ne tourne pas sous Windows Mobile ;
  • qu'il ne soit pas lié à un forfait trop limité par rapport à mes usages.

J'attends donc les premiers téléphones tournant sous le système de Google pour les étudier de plus près. Étant donné les usages que je viens de lister, cela mérite que je me penche sérieusement sur le sujet 😉

Voici une photo de mon téléphone précédent, le Sony Ericsson P990i :

014p990i

Les débuts du Web grand public vus du côté d’un fournisseur d’accès à Internet

Suite à certains souhaits émis par des lecteurs de ce blog dans les commentaires de mes dernières notes, me voici en train d’aborder un autre sujet fortement axé sur l’informatique… Les débuts du Web grand public vus du côté d’un fournisseur d’accès à Internet (FAI). Je glisse vers ce thème puisqu’à partir du milieu des années 90, j’ai commencé à collaborer avec un FAI qui se lançait. Avant cet épisode, j’avais participé à des travaux de la même entreprise dans le monde du Minitel…

Être fournisseur d’accès à Internet, c’était au départ : louer une ligne spécialisée de 64 kb/s et en distribuer le débit sur quelques modems (voir illustration ci-dessous). Un Power Macintosh Workgroup Server 9650 d’Apple, qui tournait sous Mac OS 8.0, cumulait presque tous les rôles (je mets entre parenthèses le nom des logiciels utilisés) : serveur HTTP (WebSTAR, accompagné de MacPerl), serveur de messagerie (EIMS), serveur FTP (FTPd) et serveur DNS (QuickDNS Pro Server). Étaient aussi installés sur ce Mac : AppleShare IP (pour étendre Mac OS au niveau du partage de fichiers) et Timbuktu (pour l’administration à distance). Ça fonctionnait drôlement bien !

La collaboration s’est faite au départ sur la réalisation et la refonte de plusieurs sites Web statiques. Cela concernait des entreprises et des institutions locales. J’écrivais les pages HTML dans un simple éditeur de texte et j’y ajoutais un peu de code JavaScript, surtout pour la gestion des images dans les menus. Je faisais aussi des animations au format GIF, c’était très tendance à l’époque 😉

Un peu plus technique : j’avais réalisé une visite virtuelle d’une ville avec la technologie QuickTime VR, donc avec une navigation au sein de photos panoramiques. J’étais loin de bénéficier de l’environnement technique idéal : je n’avais qu’un appareil photo numérique Apple QuickTake 150 datant de 1995, sans trépied, et ne proposant aucun réglage. De plus, toute la chaîne de production était manuelle : il n’y avait pas d’outils pour coller les images et générer des fichiers au format QuickTime VR. J’avais donc passé de nombreuses heures devant Photoshop : collage, harmonisation de la luminosité, du contraste et des couleurs, et correction des jonctions. La qualité du résultat n’était pas vraiment au rendez-vous, mais l’expérience était intéressante…

J’avais aussi développé le prototype d’une application Web de réception et d’envoi d’e-mails (POP et SMTP). C’était encourageant, mais une solution existante et gratuite répondait déjà bien au besoin : EMUmail.

À partir du début de l’année 1998, la collaboration s’est intensifiée. La ligne spécialisée avait été complétée par une réception par satellite à 512 kb/s (puis 2 Mb/s) et la connexion des abonnés se faisait via des lignes Numéris ou un boîtier 3COM à 56 kb/s, vitesse qui n’avait pas encore été normalisée. En plus du Mac, trois serveurs étaient présents, l’un sous Linux et les deux autres sous Windows NT Server 4.0. Sur l’un des PC sous Windows, il y avait : Apache pour le Web (accompagné de Perl et PHP), War FTP Daemon comme serveur FTP, Spaghetti Proxy Server pour le cache, Omni-NFS comme serveur DNS et EMUmail comme passerelle pour les e-mails. Sur l’autre (que j’avais assemblé et installé) : War FTP Daemon comme serveur FTP, Internet Infomation Server pour le Web et quelques autres technologies de Microsoft pour les sites dynamiques en ASP (InterDev, FrontPage et Access).

Les tâches d’administration étaient assez standards : maintenance des serveurs, traitement des pannes, gestion des utilisateurs, mise en place des sites Web, mise à jour de ces sites, surveillance des onduleurs et gestion des sauvegardes sur bandes et cartouches. Un nouvel abonnement était l’occasion d’enchaîner plusieurs actions : création du compte, création d’une ou des adresses e-mail et ouverture d’un espace Web. Et pour la mise en place d’un site Web, il fallait : enregistrer un ou des noms de domaines (auprès de l’InterNIC, 70 $ pour deux ans), en récupérer la gestion DNS (par le biais de nombreux échanges d’e-mails), créer la table de routage dans les serveurs DNS, ouvrir l’espace Web et transférer les données.

Je répondais également au téléphone : clients, fournisseurs, etc. Il y avait parfois des problèmes simples à régler à propos des connexions, mais j’ai aussi eu quelques conversations surréalistes. Je me souviens de l’une d’entre elles en particulier : j’avais dû expliquer à un employé de France Télécom où trouver la touche @ sur son clavier afin qu’il puisse m’envoyer un e-mail…

Avant de travailler sur un site Web plus conséquent que les autres (prochain paragraphe), j’ai fait principalement deux types de développements : du code pour le traitement de formulaires et des applications Web. La première application, GenIndex, était un outil de référencement multiple. À partir de données saisies dans un formulaire, GenIndex référençait un site Web sur une petite quinzaine de moteurs de recherche. Google ne figurait pas dans la liste des moteurs, car je parle là d’un temps où Google Inc. (qui date de septembre 1998) n’existait pas encore ! La seconde application, Symade, était un petit système de gestion de contenu. À partir d’une page d’accueil, l’administrateur pouvait ajouter des pages Web simples dont il définissait le contenu. Là encore, je parle d’un temps où… 😉

L’une des plus grosses réalisations que j’ai faites pendant cette période était le site Web d’un grand groupe. Ce groupe disposait d’une charte graphique assez élégante et j’avais pris plaisir à la décliner pour le Web. Outre les rubriques standards que l’on retrouvait à ce moment-là sur la plupart des sites, il fallait intégrer une grosse base de données sur les produits du groupe et proposer une fonction de recherche dans ce catalogue. Une contrainte : utiliser les technologies de Microsoft. Donc, souvenir déplaisant : l’installation et l’utilisation des produits Microsoft (installations laborieuses, redémarrages multiples, incompatibilités logicielles et matérielles, interdépendance des logiciels, lourdeurs, plantages, lacunes fonctionnelles, etc.). Souvenir agréable : l’accueil d’un stagiaire et sa formation aux différentes pratiques de l’entreprise. Il venait aussi de l’UTC et il a repris mon travail quand je suis parti faire de la recherche dans le privé.

Voici une photo de quelques modems distribuant le débit d’une ligne spécialisée (photo prise à l’époque avec un appareil photo numérique Apple QuickTake 150 datant de 1995) :

013modems

Unix, Linux, NeXTstep, Mac OS X et moi

Tiens, un commentateur m'incite à écrire quelques lignes sur Linux ou la programmation système…

À la fin des années 80, après avoir goûté à différents systèmes d'exploitation comme CP/M, DOS, Mac OS, les systèmes des Atari ST et des Commodore Amiga, etc., j'ai été conquis par l'esthétique des systèmes Unix. Je cumulais les livres sur le sujet et j'y goûtais dès que j'en avais l'occasion. Et puis, un certain Steve Jobs a fait parler de lui : il proposait des machines fabuleuses, les stations NeXT, dont le système (NeXTstep) faisait partie de la famille des Unix… J'avais commandé les brochures et je m'étais rendu au CNIT à la Défense pour assister à des démonstrations. Mais, je n'étais même pas encore entré au lycée et j'étais donc très loin de pouvoir m'offrir l'un de ces objets d'exception. Objets d'exception à plus d'un titre : aspect extérieur, conception interne, architecture du système Unix, interface magnifique, logiciels innovants, programmation visuelle orientée objet, etc. À ce moment-là, je ne me doutais pas que pas mal d'années après, j'allais pouvoir acquérir une NeXTstation…

Bien avant cette acquisition, j'ai commencé mes études d'informatique à Lille en 1993. Les environnements de travail étaient assez variés : NetWare, AS/400, etc. Et il y avait deux salles où je passais beaucoup de temps : la salle des stations IBM RS/6000 sous AIX (donc un Unix) et la salle des stations Sun sous Solaris (aussi un Unix). J'avais ces machines à ma disposition et elles étaient connectées à Internet ! Les performances des stations IBM étaient époustouflantes et, sur les stations Sun, il y avait Mosaic pour découvrir les premiers sites Web. Je pouvais enfin me plonger complètement dans le monde Unix, en particulier : programmation système, programmation réseau et programmation parallèle. On recodait les commandes du système, on décortiquait les trames sur le réseau, on jouait avec certains protocoles, on réalisait des calculs distribués… Je me souviens avoir codé un outil qui modifiait les images pour compenser les problèmes de rendu de l'imprimante. Cet outil utilisait la puissance de calcul de tous les ordinateurs de la salle. J'avais parcouru beaucoup de serveurs FTP afin de trouver de grosses images pour les tests. Les résultats étaient convaincants !

De manière naturelle, j'avais récupéré la version 0.99 de Linux, sur un nombre impressionnant de disquettes, et je l'avais installée sur l'un de mes disques durs. Depuis 1993, je n'ai plus quitté Unix. À partir de 1995, j'ai poursuivi mes études à l'UTC. Outre les VAX sous VMS (notamment pour les e-mails), les Mac et les PC, nous (les étudiants) avions un serveur sous Linux au service informatique. Nous l'exploitions pour de nombreux projets, souvent en relation avec le Web. Avec mon ami Renaud Sirdey, nous avions développé un nouveau format graphique et interactif pour le Web (IGF) dans le cadre d'une collaboration avec HP. Ensuite, nous avons eu des comptes sur des serveurs sous Digital Unix. Pine pour les e-mails, j'adorais ! D'ailleurs, Gmail et ses raccourcis au clavier me rappellent d'excellents souvenirs d'utilisation de Pine, en mode texte et au clavier. Toujours avec Renaud Sirdey en collaboration avec HP, nous avions développé un système de cartographie multiéchelle pour le Web (Map WAN). Le codage de l'interface graphique nous avait permis de nous pencher sur X11 et Motif. Map Wan tournait sur plusieurs Unix, parmi lesquels HP-UX (que je n'avais pas encore cité). À cette époque, j'avais des données issues de l'usage de divers environnements : DOS, GeoWorks (quel plaisir…), Windows, Mac OS, VMS, Unix. Je n'avais pas encore récupéré mes données plus anciennes, par exemple mes premiers programmes simplement recopiés à la main sur du papier ou encore les logiciels ou jeux que j'avais enregistrés sur cassettes. Mais, j'avais deux objectifs.
  1. Récupérer toutes mes données depuis l'école primaire, conserver les fichiers originaux (sur leur support d'origine et dans mes archives numériques) et les migrer vers des formats aussi standards que possible.
  2. Garder de quoi faire revivre ces données : les machines (virtuellement via des émulateurs, mais aussi physiquement), les systèmes d'exploitation et les logiciels, le tout au sein d'un environnement vraiment robuste tel Unix.

Aujourd'hui, ces deux objectifs sont atteints. Mais, il y a eu quelques étapes intermédiaires. L'une d'elles a été un intérêt certain de ma part pour BeOS à la fin des années 90. C'est intervenu au cours d'une période où je travaillais au bureau sous Solaris (avec des stations Sun Ultra 30), sous AIX (IBM RS/6000) et sous Windows (avec un PC portable et des stations de travail IBM, Compaq ou HP), alors que j'avais sur mon réseau personnel un PC principal sous Linux, un PC de test sous Windows et une NeXTstation… Avant d'avoir cette dernière, j'avais creusé un peu la programmation sous Linux en développant un pilote pour une carte d'acquisition vidéo (DGi-1+, très peu répandue). Après quoi j'avais écrit une application exploitant ce pilote pour afficher les séquences d'images (voir l'illustration ci-dessous) en me basant sur une librairie (BasicX) de Renaud Sirdey. J'avais aussi fait une version qui stylisait les images en mode texte. Nous étions en 1999. Je jouais avec cette carte d'acquisition depuis une dizaine d'années. Au tout début des années 90, j'avais écrit un pilote en assembleur sous DOS avec une application de pilotage qui m'avait permis de construire un appareil photo numérique d'environ un mètre cube… Par la suite, j'avais profité de mon étude de synthèse à Lille en 1995 pour développer avec des amis un système plus complet : second ordinateur de pilotage à distance, traitement des images en temps réel avec divers filtres (netteté, contours, etc.), transitions, décodage de Canal + et reconnaissances de formes (les pièces de Tetris le jour de la soutenance dans un amphi comble…). J'avais même procédé à un portage sous Windows en 1997, avec de nouvelles fonctions : matrices personnalisées pour les filtres, impression, enregistrement et lecture vidéo. Cela avait été l'occasion de concevoir une compression vidéo avec ou sans perte.

Et puis un jour, Mac OS X est arrivé… Apple avait racheté NeXT et NeXTstep s'est retrouvé métamorphosé en Mac OS X. NeXTstep semblait avoir 10 ans d'avance à sa sortie, mais Mac OS X est arrivée à l'heure : celle pour moi de changer d'Unix, depuis Linux vers Mac OS X.

Voici une copie d'écran de Dginux, l'application utilisant le pilote que j'ai développé sous Linux pour la carte d'acquisition DGi-1+ :

012dginux

Malgré les nouveaux stocks d’iPhone 3G, je ne l’achète pas

J’aime beaucoup le concept de l’iPhone. Je n’avais pas acheté le premier modèle, surtout parce qu’il ne proposait pas de fonction d’enregistrement vidéo en standard. Quand l’iPhone 3G est arrivé, j’ai été surpris de voir que cette fonction ne faisait pas partie de sa fiche technique. Mais, j’avais tout de même décidé de l’acheter. En effet, la synchronisation en continu avec le service MobileMe m’intéressait particulièrement. Un autre argument en faveur de l’iPhone : la possibilité (enfin) d’installer des applications tierces via l’App Store.

Je n’étais pas pressé, car les premiers retours sur la version 2.0 du programme interne de l’iPhone, sortie avec le modèle 3G, mettaient en évidence certains soucis justifiant d’attendre un peu. Par ailleurs, la déclinaison 16 Go en noir a très rapidement été en rupture de stock. Aujourd’hui, l’iPhone 16 Go est à nouveau disponible en noir et plusieurs problèmes ont été corrigés. Pourtant, je ne l’achète pas. Et ce, principalement pour les quatre raisons suivantes :
  1. Les outils permettant d’enregistrer de la vidéo ne sont pas accessibles via l’App Store, ils nécessitent un iPhone modifié pour être installés. De plus, la qualité fournie est vraiment trop faible.
  2. Le service MobileMe ne fonctionne toujours pas correctement pour moi (voir l’illustration ci-dessous). Et comme j’utilise plutôt les services de Google, je préférerais une synchronisation directe de ce côté-là.
  3. J’ai lu trop de témoignages négatifs sur la gestion de la 3G par l’iPhone 3G. On parle souvent de difficultés d’accrochage.
  4. Orange se moque vraiment du monde en parlant d’illimité alors que le débit ne correspond pas à ce que permet la 3G+ et qu’il est aussi question d’un quota mensuel de téléchargement. L’interdiction de faire de la voix sur IP me dérange aussi, tout comme l’interdiction d’utiliser l’iPhone comme modem.

Résultat : je garde mon téléphone actuel, un Nokia E61i, et je porte mon attention encore un peu plus sur les futurs téléphones qui seront équipés du système de Google (Android). 

Voici une copie d’écran du message d’erreur de MobileMe quand je lui demande d’afficher mes calendriers :

011mobileme

Je vais continuer un blog personnel sur Posterous

Posterous est une plate-forme de blog ultra simple. On publie sur son blog (qui peut être un podcast) en envoyant des e-mails (contenant éventuellement images, sons et vidéos) ou des SMS. On reçoit par e-mail une copie des commentaires… Auxquels on peut répondre par e-mail. J'aime beaucoup cette approche, notamment parce qu'ainsi, le contenu (notes et commentaires) n'est pas seulement sur le Web : il en existe un double dans la messagerie (par contre, on ne reçoit pas encore de copie d'une note que l'on aurait modifiée sur Posterous.com après son envoi).

J'ai découvert Posterous sur TechCrunch fin juin et j'ai tout de suite commencé à tester cette plate-forme de blog. Ensuite, les vacances… Et en août, quelques-uns de mes contacts se sont aussi lancés dans un test. Cela a été l'occasion d'essayer les nouvelles fonctions apparues entre temps et de me demander si j'allais continuer un blog personnel sur Posterous.

Je me suis donc abonné, au sein de Posterous, aux blogs de mes contacts et au blog officiel de Posterous. Cela se fait en un clic quand on est connecté sur un blog. On peut ensuite consulter une page où sont regroupées les notes des différents abonnements. Mais on peut aussi ajouter l'adresse du fil RSS de ces abonnements dans son lecteur RSS. Un seul fil pour tous les abonnements, ça peut être pratique. Évidemment, il y a aussi un fil RSS pour chaque blog. Posterous permet également de publier le contenu envoyé sur d'autres plates-formes (Twitter, Flickr, Tumblr, Blogger, Wordpress, Movable Type, Typepad, Livejournal et Xanga). J'utilise cela pour Twitter.

Alors, j'ai envoyé quelques notes sur divers sujets. Me sentant à l'aise dans ce système efficace, je me suis posé cette question : « Que me manque-t-il pour faire de ce début de blog Posterous mon blog personnel ? » La réponse : la gestion de mon nom de domaine, comme sait le faire Blogger (par exemple, www.RendezVousCreation.org est géré par Blogger). Et là… Les développeurs de Posterous annoncent la disponibilité de cette fonction ! Dans la foulée, je dépose BlogNico.com et, après la configuration de mon domaine et de Posterous, ça fonctionne. Donc, je vais continuer ce blog personnel sur Posterous.

Bien sûr, cette plate-forme est très jeune et je suis preneur de quelques fonctionnalités supplémentaires :
  • l'intégration de FeedBurner pour la gestion du fill RSS ;
  • la gestion des catégories de notes ;
  • la personnalisation du thème graphique ;
  • la possibilité d'ajouter des images de manière simple quand on édite une note après l'avoir envoyée ;
  • l'encodage correct des titres envoyés vers Twitter (il y a effectivement un petit souci à ce niveau-là actuellement, mais développeurs m'ont dit y travailler…) ;
  • la recherche par mots clés au sein d'un blog ;
  • l'envoi par e-mail d'une copie d'une note que l'on aurait modifiée sur Posterous.com.

Voici une copie d'écran de la configuration de mon blog personnel sur Posterous :

009posterous

Mon deuxième livre sur les jeux vidéo

Je parlais dans ma note précédente de mon premier livre sur les jeux vidéo : Émulation et jeux vidéo (paru en 2001 chez Micro Application). Depuis sa publication, je travaille sur un second livre sur le sujet : Video Game Screenshots: Cartridge Quintessence. Ce livre, écrit en trois langues avec Lilian Piluso, présentera une sélection d’environ 250 jeux vidéo sortis en cartouche sur les systèmes suivants (quelques précisions entre parenthèses, en particulier les noms dans les autres régions du monde) :
  • Atari 2600 ;
  • Atari 8-bit (notamment Atari XE Sytem) ;
  • Nec PC Engine (Nec Turbo Grafx 16) ;
  • Nintendo Entertainment System (Nintendo Famicom) ;
  • Nintendo Super NES (Nintendo Super Famicom) ;
  • Nintendo 64 ;
  • Sega Master System (Sega Mark III) ;
  • Sega Mega Drive (Sega Genesis) ;
  • SNK Neo Geo.

Au départ, j’ai travaillé sur beaucoup plus de systèmes (y compris l’arcade), mais il y a fallu n’en garder que quelques-uns pour éviter d’avoir un livre hors norme au niveau du nombre de pages. À ce propos, quelques discussions avec Winnie Forster de GAMEplan m’ont permis d’affiner l’axe éditorial. Il s’agit donc d’une sélection de jeux vidéo en cartouche, hors consoles portables. Ce support ancre la sélection dans le temps et sur le marché des consoles de jeu. Une partie du livre explique la démarche et l’autre présente la sélection. Pour chaque jeu, il y a sur une page :
  • le titre ;
  • l’année de sortie ;
  • la photo de la console concernée ;
  • des informations additionnelles (titre alternatif, nom de la console, éditeur, développeur, nom de la série et informations sur la version d’arcade s’il y a lieu) ;
  • un texte de présentation (merci à Lilian Piluso pour la rédaction) en trois langues (allemand, anglais et français) ;
  • une photo de l’écran de titre (1/8 de la page) ;
  • une photo du premier niveau (la moitié de la page).

La particularité de ce livre est de proposer des photos d’écran de haute qualité. Non pas des copies d’écrans réalisées à l’aide d’émulateurs, mais de réelles photos prises sur un téléviseur à tube cathodique affichant le signal provenant des consoles d’origine. L’idée est de reproduire, dans un média à haute résolution (un livre), le rendu visuel des jeux correspondant à ce que les joueurs ont vu. L’ambition est donc liée à la conservation de ce rendu si particulier (avec des lignes horizontales clairement visibles).

Cette approche est complexe :
  1. Il faut faire la sélection en croisant des critères simples. J’ai un certain nombre d’heures de jeu derrière moi et une solide documentation, mais je ne suis pas expert dans tous les genres et sur toutes les consoles. J’ai donc soumis des versions préliminaires de ma sélection à des amis, divers contacts et plus largement sur des forums spécialisés, comme ceux du site Gros Pixels.
  2. Il faut regrouper de nombreuses informations sur les jeux. Je me suis aidé de quelques grosses bases de données, par exemple Moby Games.
  3. Il faut posséder toutes les consoles et tous les jeux en question. Cela m’a pris plusieurs années. Heureusement que certains contacts au Japon et aux USA ont pu parfois me dépanner.
  4. Il faut prendre les photos. C’est un sujet difficile pour de multiples raisons, notamment : il faut éviter les bandes trop sombres ou trop claires sur l’image, et l’effet de moiré (comme un scintillement visible sur la photo). Après avoir testé différents équipements de vidéo professionnelle, j’ai finalement trouvé une solution vraiment satisfaisante.
  5. Il faut écrire les textes de présentation. Pour cela, j’ai eu la chance de rencontrer Lilian Piluso qui a rédigé tous ces textes.

Autre point capital : il faut que je trouve un éditeur…

Voici la couverture de mon premier livre, Émulation et jeux vidéo :

008emulationetjeuxvideo