histoire du Web - articles archivés

Abonnez-vous au flux RSS feed pour cette catégorie uniquement

 

Je vous parlais (sic) dans un billet du 21 janvier de la journée d’études sur le thème “Je me souviens…. de l’Internet. Traces et mémoires du numérique” avec l’INTD et des associations d’utilisateurs de logiciels du monde des bibliothèques et centres de documentation spécialisés.

Je n’ai pas pu aller comme prévu assister à cette journée, mais je viens de voir que l’on peut retrouver les interventions des participants sur le site du Fulbi

La FULBI (Fédération des Utilisateurs de Logiciels pour Bibliothèque, Documentation et Information) organise sa journée d’études sur le thème “Je me souviens…. de l’Internet. Traces et mémoires du numérique” avec l’INTD et des associations d’utilisateurs de logiciels du monde des bibliothèques et centres de documentation spécialisés.

L’objectif de cette journée est de proposer “aux chercheurs, consultants, professionnels de la gestion de l’information (une rencontre) le jeudi 21 janvier pour échanger sur les enjeux, méthodes, outils et responsabilités des acteurs de la gestion de l’information dans la conservation, la transmission et la mémoire des services web, portails, mails, forums etc.. et de leurs contenus“.

Voici un sujet intéressant. Je m’y suis inscrite et essaierai de vous faire un compte-rendu.

Chaque année la journée d’études a un thème particulier. Ainsi, en janvier 2009, le sujet traité était “Identification, identifiant, identité…individu”.
Voir sur leur site (tout neuf) les supports de certains des intervenants.

Le rapport annuel GISWatch 2009, “’accès à l’information et au savoir en ligne – faire progresser les droits humains et la démocratie” vient d’être publié par l’Association pour le progrès des communications (APC) et le bailleur de fonds néerlandais Hivos, tous deux étant des organisations de la société civile mondiale.
Il révèle la vulnérabilité d’Internet.

Il traite des normes et logiciels ouverts, ainsi que de l’accès aux ressources pédagogiques et bibliothèques libres, ainsi que des droits de propriété intellectuelle et des droits au savoir.
Ces points sont, d’après les débats, des facteurs importants qui influent sur l’accès à l’information et au savoir en ligne. Car “il ne suffit pas d’être en mesure d’allumer son ordinateur et (…) rien ne garantit que la richesse de l’information disponible sur l’internet aujourd’hui perdurera demain

A noter une cartographie des droits. “Par exemple, si l’on se fie aux résultats des recherches dans Google, on pourrait dire que les pays ont des préoccupations très différentes en ce qui concerne les droits : les « droits culturels » au Mexique, les « droits des victimes de la pollution » en Suisse, le « droit à l’éducation dans un langage des signes autochtone » en Finlande ou les « droits des surendettés » en Côte d’Ivoire

Ce rapport a recueilli les perspectives des spécialistes, analystes et activistes des TIC et des organisations de la société civile dans le monde entier.

Parmi les commentateurs, l’un d’entre eux estime que ce rapport a eu “la tâche difficile et extrêmement importante d’aborder les questions convergentes de la liberté d’expression, de l’accès au savoir et à l’information et des droits numériques dans un contexte mondial et comparatif“. Il s’agit de Joe Karaganis, du Social Science Research Council.

La version française du rapport est prévue dans un an

___________
sources
http://www.tic.ird.fr/spip.php?article326
http://www.a-brest.net/article5454.html
http://www.alternatives.ca/fra/journal-alternatives/publications/nos-publications/articles-et-analyses/articles-de-l-exterieur/article/un-rapport-montre-que-l-internet

Je vous signale un excellent billet intitulé “Twitter : présentation du concept, de ses différents usages et de quelques applications connexes“.
Il appartient au blog “aysoon” qui traite des évolutions du web et ses innovations

Bien qu’il date de mai, il est une synthèse claire toujours d’actualité de ce qu’est et de ce que permet Twitter.

Prenez le temps de regarder le reste du blog car il est intéressant.

Deux billets d’un professeur documentaliste de Rouen méritent le détour. Si leur sujet interpelle particulièrement tout pédagogue, il ne laissera pas insensible tous ceux qui s’intéressent à la recherche sur Internet.

Le premier répertorie sans concession les caractéristiques de Google (présentation, analyse des caractéristiques, comment l’enseigner) avec une webgraphie fort intéressante.

Le second traite de la pédagogie d’enseignement pour une bonne compréhension/utilisation de Google par les élèves. Le diaporama et les fiches consignes utilisés pendant les cours ainsi qu’une autre webgraphie accompagnent ce billet.

Une lecture non seulement intéressante mais qui peut nourrir la réflexion de tous ceux qui ont un rôle pédagogique en matière de recherche de l’information.

Un commentaire de Yves-François Le Coadic, une personnalité bien connue dans le monde des sciences de l’information, estime que l’approche faite par le premier billet met en évidence pourquoi les sciences de l’information demeurent une non-disicpline. Un beau sujet pour un débat passionnant trop rarement abordé.

Merci à Brainsfeed d’avoir attiré l’attention sur ces billets.

Pour prendre un peu de recul sur le sujet et pour l’élargir,

==> voir un pdf qui présente les résultats d’une étude commandée par la British Library sur les jeunes et les moteurs de recherche pour cerner l’évaluation des capacités de ces jeunes à rechercher de l’information et voir comment cette évolution peut affecter le futur des bibliothèques.

==> lire dans le billet du Bulletin des bibliothèques de France BBF intitulé “Traitement et pratiques documentaires : vers un changement de paradigme ?” la partie concernant l’intervention de Nicolas Bugnon et René Schneider lors de la deuxième conférence internationale Document numérique et société dont on peut retrouver la communication complète dans le livre des actes de la conférence publié aux éditions de l’ADBS.
Ils ont – pour la partie qui nous intéresse ici – analysé des fichiers logs de 750.000 requêtes pour reconstituer non seulement les modalités d’interrogation et leur rendement (nombre de résultats) mais également les erreurs et errances des internautes.

==> et hors sujet ici mais pour voir un autre aspect du sujet, le point de vue de ceux qui font les moteurs pour les sites de e-commerce, voir ces billets
http://blog.baphira.com/2008/07/09/un-moteur-de-recherche-interne-pour-votre-e-commerce/
http://jbp.typepad.com/jb/2008/08/e-commerce-rfle.html

Voici le résumé d’un article fort intéressant écrit par Jean-Paul Baquiast paru sur le site d'”Admiroute” intitulé “sciences, technologies et politique : l’Europe doit se mobiliser pour l’IPv6

Internet Protocol, aujourd’hui à sa 4e version, permet d’identifier chaque machine pour y accéder en attribuant un numéro composé de 10 chiffres.
Cette taille définit la capacité d’adressage, i.e. le nombre de machines ou d’équipements connectables au plan mondial.
Elle date du début des années 1980 et était prévue pour environ 250 millions d’utilisateurs… mais nous sommes aujourd’hui 950 millions (A retenir que les USA se sont réservés 56% des adresses, ce qui complique les choses)
D’où une pénurie plus que proche qui nécessite de définir un nouveau protocole répondant à deux impératifs
1. respecter l’esprit égalitaire d’Internet
2. supporter les interconnexions entre PC, téléphones mobiles, automobiles, applications domotiques, capteurs industriels et autres objets reliés en réseau (qui n’existent pas encore mais se profilent déjà) C’est ce que l’on appelle l'”Internet des objets”.

En conséquence, l’Internet Engineering Task Force – organisme mondial de standardisation d’Internet – a développé un nouveau protocole en 1995 qui est la version 6 de l’IP.
Ce protocole a pour but d’intégrer des améliorations en termes de sécurité, de qualité de service, d’auto-régulation (lorsque l’IP est attribué automatiquement par l’appareil et non plus suite à un paramétrage humain).
L’avantage recherché est de permettre
– des connexions pour tous types de transports d’images et de sons immédiatement possibles
– des raccordements permanents (avec interruption possible pour cause de sécurité)

Le développement de cette nouvelle version exige un important effort de recherche de la part des universités et des industriels.
De par le vaste monde
– les USA visent juin 2008 pour que tous leurs réseaux militaires (c’est fait) et administratifs (à finaliser) soient en version IPv6 à cette date
– le Japon a mis en place en 2000 un programme de recherche – WIDE – et soutient des projets industriels pilotes notamment en transport et en domotique. Son objectif de migration en IPv6 pour 2005 est presque tenu et même amélioré
– en Asie, notamment Taïwan et la Corée du Sud, IPv6 la prise de conscience est faite : c’est pour ces pays le grand enjeu à ne pas manquer
– les grands industriels mondiaux précèdent ou relaient les gouvernements dans cette approche (NTT, CICCO, Nokia, Sony, Microsoft, IBM…)
– l’Afrique ne bouge pas
– Au niveau européen, c’est en 2001 que la Commission européenne a mis en place le plan “e-Europe” et soutient des projets de recherche. Nous en sommes au 7e programme-cadre (2007-2010). C’est le réseau GEANT qui interconnecte les institutions de recherche européen et se connecte aux grands réseaux mondiaux. Mais cela reste nettement insuffisant d’après JP Baquiast.
– En France, cet effort s’est développé en 1991 avec la création du réseau RENATER, lequel a des projets applicatifs réalisés dans la domotique, le commerce électronique, l’automobile. On en entend régulièrement parlé.Mais c’est tout à fait insuffisant… il faut se réveiller, tel est l’objectif de l’article. Je vous incite vivement à le lire.

________
quelques précisions :
==> A propos de RENATER, voir un article du Journal du Net
==> Voir aussi le livre paru en 2002 aux éd. Economica “e-Europe, la société européenne de l’information en 2010” écrit par Maurice Baslé et Thierry Pénard
==> A propos du plan e-Europe 2010, cf une explication à propos de l’accessibilité au web (réalisé par une association de handicapés) et un point sur la stratégie de l’UE en matière de TIC et sur la compétitivité des territoires (réalisé par un membre de la Commission européenne). Bien que de 2005, il est intéressant.

Un colloque vient de se tenir les 19 & 20 oct. à propos de Wikipédia sur le thème “Développer – Valider – Ouvrir” (organisé en partenariat Wikimédia/Cité des Sciences).
Il y a des forums sur le site, mais il n’y a pas encore de compte-rendu en ligne.

Glossaire pour non-initiés (je reprends ici une partie du glossaire lu sur le site):

* Wikipédia : encyclopédie accessible sur Internet, libre et gratuite que chacun peut modifier et réutiliser (elle est le fruit de la collaboration bénévole de dizaines de milliers d’internautes) .

* Wikimedia Commons : projet qui héberge des documents multimédias sous licence libre.

* Wikiversity : communauté pédagogique de création et d’utilisation de ressources et d’activités destinées à l’apprentissage.

* Wikisource : bibliothèque virtuelle qui héberge des ouvrages tombés dans le domaine public.

* Wikinews : site d’actualités libres

* Wikiquote : recueil de citations

* Wiktionary : dictionnaire universel

* Wiktibooks : ensemble de textes pédagogiques

* Wikimédia France : association d’utilisateurs s’étant donné pour but de promouvoir Wikipédia et les projets associés.

* GFDL : licence libre régissant les droits du contenu de Wikipédia, conçue à l’origine pour la documentation des logiciels libres. Les contributeurs conservent leur droit d’auteur mais autorisent la libre diffusion et la modification de leur texte.

Dans l’histoire du Net, le nom de Vincent CERF a toute sa place.
Depuis 2000 il était le Chairman de l’ICANN (Internet Corporation for Assigned Names and Numbers), cette instance créée en 1998 à l’initiative du Département américain du commerce dont le rôle est d’assumer la supervision du Net et des noms de domaine. Son successeur n’est pas encore nommé.

L’évolution souhaité par beaucoup est “une gouvernance de l’Internet davantage partagée à l’international, du gouvernemental à l’intergouvernemental, et de l’intergouvernemental au multi-acteurs (multi-stakeholder), société civile et secteur privé inclus, c’est le sens de l’histoire” (Philippe Batreau, ISOC France dans un interview à Neteco.com paru le 23 oct. 2006)