Google

06 avril 2008

Quand les ordinateurs penseront plus et mieux que les humains

Lu dans "Scientific American Reports", [Volume 18, number 1, 2008], numéro spécial consacré à la robotique

Cette prospective de Ray Kursweil dans son article “The Law of Accelerating Returns” (aussi sur http://www.kurzweilai.net/) consacrée au rythme de croissance de la puissance de calcul.

Sur la base de l'analyse de la croissance passée, Ray Kurzweil fait une extrapolation pour le futur, et prévoit le maintien d'un rythme exponentiel.

En l'an 2 000, pour 1 000 dollars, on pouvait acheter un ordinateur qui avait la puissance de calcul d'un insecte. En 2010, ces 1 000 dollars permettront d'acheter une puissance de calcul équivalente à celle d'une souris.

Pour le même montant en 2020, la puissance de calcul sera celle d'un cerveau humain, et en 2050 celle de 10 milliards de cerveaux, soit la population de la Terre. A noter : il s'agit d'un équivalent de puissance de calcul brute, et non d'une intelligence similaire.

La leçon à en retenir est la suivante : quelles que soient les limites dans la conception de nouvelles technologies, ce n'est probablement pas la puissance de calcul qui sera une contrainte.

Kurzweil insiste également sur le fait que nous n'achèterons probablement pas cette puissance de calcul dans une petite boîte. Avant même cette date, le calcul, les ordinateurs eux-mêmes, seront devenus invisibles.

13 janvier 2008

Diffusion des technologies : le téléphone mobile plus rapide que tout

Lu dans "Computer", la revue de l'IEEE, December 2007

L'explosion météoritique de la technologie "téléphone portable". Les téléphone portables prolifèrent plus vite que toutes les technologies passées.

Source : Joseph Jacobsen, Organizational and individual innovation diffusion.

04 juin 2007

Attention aux nouveaux mutants : les "digital natives"

Autopromotion : lu dans 01 Informatique du 1er juin 2007

Gartner prévient : attention aux nouveaux mutants, les « Digital natives »

Nés depuis la fin des années 80, la notion de «nouvelles technologies» ne veut rien dire pour eux qui n’ont connu que l’ère du tout numérique. Ces jeunes que l’on appelle les «Digital natives» vont bientôt déferler sur le marché du travail, et Gartner prévient : «ça va décoiffer».

C'est à Barcelone lors de son symposium européen de printemps, que Gartner vient de présenter la synthèse des travaux de ses analystes, placée cette année sous le signe de huit "Tendances émergentes" qui devraient impacter toutes les organisations en charge des technologies de l'information. Parmi ces tendances, omniprésent, l'impact social des nouvelles technologies qui laisse présager, selon Gartner, les plus grands bouleversements des 5 prochaines années, avec des effets durables et irréversibles.

Le constat part de l'observation sociologique de nos enfants, qui n'ont pas connu le monde d'avant le numérique, et qui disent "j'ai eu un appareil photo" quand nous disons "je me suis acheté un appareil photo numérique".

Cette évolution n'est pas sans conséquences sur nos activités, tellement les risques d'incompréhension avec ces nouvelles générations sont importants. Non seulement ils manipulent les outils avec aisance, mais leur mode de pensée, leurs références et leurs valeurs en sont bouleversés.

Il nous faut désormais vivre avec la multitude d'outils de création de contenu dont ces ados disposent à moindre coût, et qu'ils utilisent tous les jours pour communiquer au sein de leurs communautés d'intérêts : téléphones portables à caméra intégrée, WiFi, logiciels de montage vidéo, blogs, réseaux sociaux sur le Web (mySpace), site collaboratifs (Second Life), etc.

Et ce n'est qu'un début. Car il faudra aussi compter avec les nouveaux moyens d'intéraction informelle comme le partage de "bookmarks" personnels (del.icio.us, digg.com), l'indexation et l'évaluation de contenus (Flickr, Last.fm, Epinions), les prédictions au moyen de la "sagesse des foules" (consensuspoint.com), ou les outils d'expression ou de conversation comme les blogs ou les wikis.

Intervenant comme invité, Don Tapscott enfonce le clou. Pour l’auteur de « Wikinomics – Comment la collaboration change tout » (pas encore traduit en français) les organisations les plus performantes seront celles qui sauront tirer le meilleur parti des capacités et du génie collectifs pour stimuler l’innovation, la croissance et le succès.

Cet environnement conduit inéluctablement à ce que Gartner appelle depuis quelques années la "consumérisation" des TI, cette tendance lourde qui met l'informatique professionnelle sous la coupe des consommateurs que sont leurs nouveaux collaborateurs.

Comment, alors, imposer des mesures de sécurité traditionnelles, comme le filtrage, à ces "digital natives" qui vivent quotidiennement au sein de communautés virtuelles diverses, disposent d'un avatar sur Second Life, utilisent Gmail depuis toujours, tissent leurs réseaux avec MSN Messenger et Skype et exposent sans complexe leur vie privée, image comprise, sur leur blog ? Et comment gérer un parc informatique standardisé quand les collaborateurs disposent à domicile de machines aux performances démesurées, certains jeunes "précurseurs" disposant déjà à titre personnels de capacités de stockage mesurées en Téra-octets.

Cette situation est déjà vécue dans l'enseignement, en particulier dans le supérieur, où la présence de ces "digital natives" commence à se faire sentir sur la façon de gérer l'informatique. Le premier enjeu pour les entreprises consistera à faire évoluer leur environnement culturel et à s’adapter à de nouveaux modes de communication. Pour éviter à ce patron, demandant à son jeune collaborateur un rapport important à déposer le lendemain sur son bureau, de n'y trouver qu'une clef USB contenant sous forme d'un fichier Mpeg, une superbe présentation animée: il avait oublié de préciser que le rapport devait être au format papier !

12 mai 2007

Plus de portable dans les écoles américaines ?

Lu dans "Internet Actu NG" du 10 mai 2007 :

Plusieurs écoles américaines abandonnent la distribution de portables dans le secondaire (les "high schools").

"Trop coûteux, trop de casse, trop d'usages non-pédagogiques… et en définitive, des résultats scolaires qui ne s'améliorent guère : de nombreux Etats et Comtés des Etats-Unis qui avaient massivement distribué des ordinateurs portables à leurs élèves sont tentés d'abandonner, explique le New York Times.

Plusieurs études démontreraient en effet que la possession de PC portables ne change rien aux résultats des élèves, sauf peut-être à ceux des meilleurs élèves, qui en tirent le meilleur profit. Les enseignants ont même parfois le sentiment que l'ordinateur fait obstacle à leur relation directe avec les élèves. En outre, les coûts associés à de tels programmes sont beaucoup plus élevés que prévus : remplacement et réparation, assistance aux utilisateurs, formation des enseignants, sécurité des réseaux contre les attaques et virus, mais également pour limiter l'accès aux jeux, sites porno et autres messageries instantanées…

Retour au bon vieux tableau noir, donc ? Pas tout à fait. Les écoles réfléchissent à d'autres formules, comme l'augmentation de leur parc d'ordinateurs partagés, l'élargissement des horaires d'accès aux salles informatiques ou encore, l'utilisation d'autres terminaux. Sans non plus manquer de reconnaître que dans cet échec relatif, l'absence d'évolution pédagogique joue un rôle non négligeable."

24 mars 2007

Le mystère de la capacité des disques durs. Ou du bon usage des standards

Depuis quelques années, les utilisateurs d'ordinateurs s'étonnent de la différence entre la capacité annoncée par les fabriquants de disques durs, et la capacité réelle annoncée par le système d'exploitation. Ainsi, un disque de 80 Go n'affiche-t-il que 74,5 Go sous Windows.

D'où vient la différence ? Certaines explications entendues ici ou là parlent de l'effet du formatage, qui ferait "perdre" de l'espace sur le disque. Pourquoi pas ? Mais une perte de près de 7% pour le formatage, cela fait beaucoup.

Et si la vérité était à la fois plus simple et plus obscure ? Simple comme les mathématiques, et obscure comme une vérité passée sous silence par les médias.

La faute à l'IEC !

Tout est expliqué sur le site de l'IEC, vénérable Commission Electrotechnique Internationale (ou International Electrotechnical Commission).

L'IEC est à l'origine d'un standard, en vigueur depuis décembre 1998, qui ajoute au Système International d'unités (SI) une nouvelle norme de "préfixes binaires".

Rappelons à cette occasion que le SI définit un ensemble de 7 unités de base : le mètre pour les longueurs, la seconde pour le temps, l'ampère pour le courant électrique, le kelvin pour la température, la mole pour les quantités de matière et la candela pour l'intensité lumineuse.

C'est aussi le SI qui définit les multiples et leurs abréviations, de yotta (10 puissance 24) à yocto (10 puissance -24) en passant bien sûr par kilo, méga, giga.

kilo, méga, giga

Justement, ces préfixes bien connus de l'informatique ont longtemps été utilisés (à tort) pour désigner des multiples de 1024 (2^10) et non de 1000 (10^3). Dans les premiers temps de l'informatique, la différence n'était pas bien grande, mais avec la croissance des capacités, elle devient plus visible. De 2,4% à l'échelle du kilo elle passe à 20% à l'échelle de l'exa.

Depuis 1998 donc, le SI définit clairement que le kilooctet comporte 1000 octets et non 1024. Pour faire plaisir aux informaticiens, l'IEC a eu le bon goût de créer de nouveaux préfixes pour les multiples binaires. On doit donc utiliser le kilobinaire pour désigner 1024, ce qui donne le kibioctet (KiO) pour 1024 octets. Les multiples binaires sont les suivants (cliquer sur le tableau pour l'agrandir) :



Voilà donc l'explication des octets perdus au "formatage" : en réalité, les fabricants de disques donnent leur capacité en kilooctets, tandis que le système d'exploitation lui, compte en kibioctets sans le dire. Lorsque Windows nous dit que le disque comporte 74,5 Go, il faut comprendre 74,5 Gio, soit 74,5 * 2^30 (soit 79,99 Go).

Il devient donc urgent que tout le monde prenne l'habitude de parler la même langue, ou au moins les mêmes mesures. Ou bien on accepte qu'un kilo vaut 1000 en octets comme dans toutes autres mesures, ou bien il faut apprendre à manier les multiples binaires.

J'avoue avoir un faible pour cette dernière option. Juste pour la poésie : quel plaisir de manier des barettes de 256 mebioctets, des disques de plusieurs tébioctets, ou des débits réseau de plusieurs gibibits ! Les Shadocks auraient adoré...

27 juin 2006

Fiabilité de ordinateurs personnels : encore des progrès à faire !

Une récente analyse de Gartner fait le point sur la fiabilité des matériels informatiques, et constate que les taux de pannes diminuent mais que les constructeurs doivent encore s'améliorer.

L'analyse s'appuie sur le taux annuel moyen de pannes et constate qu'au cours des trois dernières années celui-ci à diminué de 25 %, tant pour les ordinateurs de bureau que pour les portables. La mauvaise nouvelle, c'est que ce taux reste de l'ordre de 15 à 22 %.

Les chiffres portent sur les matériels acquis en 2003-2004 et en 2005-2006. Ils sont éloquents :

- pour les postes fixes le taux de pannes la première année est passé de 7 à 5 %, et de 15 à 12 % la quatrième année ;
- pour les portables, le taux de panne est passé de 20 à 15 % la première année, et de 28 à 22 % la troisième année.

Pourquoi constate-t-on plus de pannes sur les portables ?
Essentiellement parce que la demande de machines petites et légères provoque la diminution de la rigidité globale. En outre, la compression des composants dans un espace restreint provoque une température plus élevée qui peut être néfaste pour les composants électroniques. Enfin, les utilisateurs transportent leur ordinateur à la main, dans les transports, dans des conditions de confort variable, ce qui expose les matériels à des risques divers comme la temprature, les vibrations, la poussière.

Quels sont les composants les plus exposés ?
Pour les postes fixes, ce sont les cartes mères et les disques durs. Les rempalcements de cartes mères sont plus fréquents en raison de l'intégration croissante des composants sur une même carte. Même les interfaces réseau ou modem ne sont plus indépendantes et nécessitent, en cas de panne, un remplacement de la carte de base complète.

Sur les portables, l'écran a longtemps été la principale source de panne. Avec le temps, les constructeurs on largement amélioré la conception des matériels, et les écrans ne sont plus aussi sensibles que dans le passé. Les causes de pannes sur ces appareils sont, par ordre décroissant, les cartes mères et les disques (comme sur les postes fixes) mais également les éléments de chassis (y compris les mécanismes de fermeture, les pieds, les charnières, les boîtiers), les claviers et les écrans.

==

Messieurs les constructeurs, encore un petit effort !

12 juin 2006

Professeurs contre portables : la bataille des salles de cours continue

La "Chronicle of Higher Education" du 2 juin 2006 (http://chronicle.com - abonnement nécessaire pour certains articles) signale que des professeurs de plus en plus nombreux exigent que les étudiants n'utilisent plus leur ordinateur portable durant les cours.

L'une des raisons tient au développement des réseaux sans fils, grâce auxquels les étudiants sont distraits, certains faisant leurs achats en ligne ou discutant sur les messageries instantanées, au lieu de participer activement au cours.

Un professeur de Droit de l'Université de Memphis s'est attiré les foudres de ses étudiants à qui elle avait interdit l'usage des ordinateurs portables. Son argument fait référence au "mur d'écrans" qui empêchent le contact visuel avec les élèves, et pénalise les échanges, y compris entre les étudiants eux-mêmes. Mais ce cas, monté en épingle par les journaux américains, est loin d'être unique, et d'autres professeurs se battent contre l'usage des portables qui détournent l'attention des étudiants vers des distractions en ligne.

Certains établissements ont tenté de contrer ces difficultés par la mise en place de solutions technologiques permettant l'interruption des connections réseau durant le cours. En ce qui concerne les liaisons radio, ce type de solution est très complexe, et finalement peu fiable : il consiste à s'assurer que chaque borne WiFi est configurée pour couvrir une salle de cours sans déborder sur les autres, et de permetttre au professeur d'interrompre son fonctionnement comme on éteint la lumière. Malheureusement, rien n'empêche une borne extérieure d'émettre jusque dans la salle de cours.

Pour certains, ce type de démarche revient à "jeter le bébé avec l'eau du bain" : la question est surtout de mettre en place de bonnes pratiques, en définissant la place de l'ordinateur portable dans le cours, et en fixant des règles.

===

Finalement, il s'agit ni plus ni moins de fixer des règles de bonne conduite et de politesse, qui n'ont rien à voir avec l'ordinateur. Est-il moins légitime d'interdire durant les cours l'usage du portable pour se distraire que d'interdire la lecture du journal ?