Internet - articles archivés

Abonnez-vous au flux RSS feed pour cette catégorie uniquement

 

Les bases de données (juridiques) en ligne : état des lieux
Ce point a été réalisé par “Village de la Justice” qui est le site de la communauté des professions du droit (déjà 10 ans en 2007)
J’ai trouvé cette info grâce à EchosDoc.

voir http://www.village-justice.com/articles/bases-donnees-juridiques-ligne,2780.html

Bon d’accord, jusqu’ici je n’ai pas parlé de Gallica. A tort. Du moins je l’ai juste mis dans mes favoris.
Je me fais donc pardonner pour vous signaler que nous en sommes à la 2e version
La première version est toujours accessible depuis la seconde.

Allez voir ce projet européen qui mérite d’être encouragé et profitez-en pour vous faire votre propre espace et y retrouver vos livres favoris.
Si au départ ce billet voulait simplement vous transmettre cette info, finalement je l’ai élargi à une interrogation sur ces lieux où l’on peut trouver directement l’information. Je pense aux autres bibliothèques numériques existantes à tous ces sites d’archives ouvertes.
Se répertorient-elles mutuellement ? comment les retrouver ? J’avoue avoir un peu le vertige devant toutes ces merveilleuses opportunités de savoir et une telle difficulté à les retrouver.

Je commencé par m’interroger sur l’intégration dans ou le signalement par Gallica de toutes les initiatives des éditeurs, bibliothèques, etc… qui offrent des documents scannés aux internautes ?
Exemples avec

  • Cairn portail de revues de sciences humaines et sociales en texte intégral en matière d’économie, gestion, droit, histoire, géographie, sociologie, psychologie, …
  • plus de 500 revues scientifiques sont en accès libre (répertoire), leur accès autre que par leur propre site est-il récupéré dans des bases de données ?
  • Puis j’ai élargi mon questionnement aux archives ouvertes

  • EuOpenScholar“, vitrine et “outil pour la promotion de l’OA en Europe”,(…) un consortium d’universités européennes résolues à avancer dans cette voie et à tenter de convaincre le plus grand nombre possible de chercheurs de se lancer dès à présent dans ce qui sera à coup sûr le mode de communication de demain, ainsi que le plus grand nombre possible d’organismes finançant la recherche en Europe. (…)”. Ce projet a été lancé par le Professeur Bernard Rentier, Recteur de l’Université de Liège, le 18 octobre 2007. Voir la Digithèque bruxelloise, qui en est le premier édifice
  • Opendoar“, répertoirede plus de 1000 dépots institutionnels d’Archives ouvertes académiques

    Dorénavant, ceux que je trouverai seront mis en commentaire.

  • Dans la recherche avancée de Google il est maintenant possible de faire une recherche par région (pas seulement les régions françaises puisque cela concerne celles de plus de 200 pays !)

    Google se base sur l’analyse géographique des adresses IP des serveurs hébergeant les sites web ainsi que sur les autres noms de domaines managés par les webmestres du pays

    source : m’ci les infostratèges

    Si vous aimez la visualisation de vos recherches par carte mentale, vous allez apprécier de voir les réponses de Wikipédia sous cette forme.
    Pour cela, allez sur wikimindmap.org

    N’oubliez pas de sélectionner la langue des réponses (ça aide, sinon vous les aurez en allemand)

    Source : BrainsFeed, m’ci

    On peut à juste titre expliquer qu’il faut apprendre à rechercher l’info sur le Net, l’enseigner… et n’en demeurer pas moins convaincue que la chance, le hasard et la ténacité non structurée permettent parfois de fort jolis débouchés après que rigueur, raisonnement & circulation dans plus large ou plus resserré n’aient rien donné de satisfaisant.

    Combien de fois avez-vous trouvé une information intéressante que vous recherchiez dans un tout autre contexte que celui dans lequel vous êtes présentement ?
    Combien de fois avez-vous arrêté la recherche en cours pour noter avec grand soin la réponse trouvée à une autre recherche en cours restée peu pertinente ?

    C’est pourquoi à certaines félicitations sur des réponses extra-ordinaires apportées (*), je me garde bien d’expliquer comment je les ai trouvées.

    Alors, quel plaisir j’ai eu de lire une communication faite en 2003 (n’est jamais trop tard pour bien faire !) à Bucarest lors de la Conférence internationale francophone en Sciences de l’information et de la communication par Olivier Ertzscheid (Urfist Toulouse1) et Gabriel Gallezot (Urfist Nice) intitulée “chercher faux et trouver juste, sérendipité et recherche d’information

    Certes les choses exprimées là sont fort savantes, mais quand même, quel plaisir à lire !

    _________
    (*) noter le tiret entre extra et ordinaire ! 😉

    Depuis le 21 juin 2004 la loi dite LCEN (loi pour la confiance dans l’économie numérique) a introduit le principe d’un droit de réponse pour les contenus diffusés sur le web.
    Avec le décret du 24 octobre 2007, le droit de réponse sur Internet bénéficie d’un régime juridique qui lui est propre et s’ajoute à ceux qui existent déjà en matière de presse écrite et de communication audiovisuelle.
    Ce décret vise non seulement les textes mais aussi les sons et les images et précise que la réponse doit se faire sous forme d’un écrit équivalent à la longueur du message, de l’image ou du son qui l’a provoqué (?!).

    Dans leur billet “Le droit de réponse en ligne est enfin réglementé. Opérationnel en pratique ?” publié par les avocats Thibault Verbiest et Marie de Bellefroid sur le site “Portail du droit des nouvelles technologies” le 8 novembre 2007, ils soulignent un point faible du décret, à savoir que ce dernier stipule dans son article 1 « les utilisateurs sont en mesure, du fait de la nature du service de communication au public en ligne, de formuler directement les observations qu’appelle de leur part un message qui les met en cause » que la possibilité de laisser un commentaire.

    Ils font remarquer que

    (…)il est évident qu’un commentaire ajouté au bas d’un article par la personne concernée elle-même, ou la réponse à un message lancé sur un forum de discussion, n’a certainement pas le même impact dans l’esprit des internautes, qu’une réponse insérée par l’éditeur lui-même, et affichée comme l’exercice d’un droit de réponse légal…

    Voici le résumé d’un article fort intéressant écrit par Jean-Paul Baquiast paru sur le site d'”Admiroute” intitulé “sciences, technologies et politique : l’Europe doit se mobiliser pour l’IPv6

    Internet Protocol, aujourd’hui à sa 4e version, permet d’identifier chaque machine pour y accéder en attribuant un numéro composé de 10 chiffres.
    Cette taille définit la capacité d’adressage, i.e. le nombre de machines ou d’équipements connectables au plan mondial.
    Elle date du début des années 1980 et était prévue pour environ 250 millions d’utilisateurs… mais nous sommes aujourd’hui 950 millions (A retenir que les USA se sont réservés 56% des adresses, ce qui complique les choses)
    D’où une pénurie plus que proche qui nécessite de définir un nouveau protocole répondant à deux impératifs
    1. respecter l’esprit égalitaire d’Internet
    2. supporter les interconnexions entre PC, téléphones mobiles, automobiles, applications domotiques, capteurs industriels et autres objets reliés en réseau (qui n’existent pas encore mais se profilent déjà) C’est ce que l’on appelle l'”Internet des objets”.

    En conséquence, l’Internet Engineering Task Force – organisme mondial de standardisation d’Internet – a développé un nouveau protocole en 1995 qui est la version 6 de l’IP.
    Ce protocole a pour but d’intégrer des améliorations en termes de sécurité, de qualité de service, d’auto-régulation (lorsque l’IP est attribué automatiquement par l’appareil et non plus suite à un paramétrage humain).
    L’avantage recherché est de permettre
    – des connexions pour tous types de transports d’images et de sons immédiatement possibles
    – des raccordements permanents (avec interruption possible pour cause de sécurité)

    Le développement de cette nouvelle version exige un important effort de recherche de la part des universités et des industriels.
    De par le vaste monde
    – les USA visent juin 2008 pour que tous leurs réseaux militaires (c’est fait) et administratifs (à finaliser) soient en version IPv6 à cette date
    – le Japon a mis en place en 2000 un programme de recherche – WIDE – et soutient des projets industriels pilotes notamment en transport et en domotique. Son objectif de migration en IPv6 pour 2005 est presque tenu et même amélioré
    – en Asie, notamment Taïwan et la Corée du Sud, IPv6 la prise de conscience est faite : c’est pour ces pays le grand enjeu à ne pas manquer
    – les grands industriels mondiaux précèdent ou relaient les gouvernements dans cette approche (NTT, CICCO, Nokia, Sony, Microsoft, IBM…)
    – l’Afrique ne bouge pas
    – Au niveau européen, c’est en 2001 que la Commission européenne a mis en place le plan “e-Europe” et soutient des projets de recherche. Nous en sommes au 7e programme-cadre (2007-2010). C’est le réseau GEANT qui interconnecte les institutions de recherche européen et se connecte aux grands réseaux mondiaux. Mais cela reste nettement insuffisant d’après JP Baquiast.
    – En France, cet effort s’est développé en 1991 avec la création du réseau RENATER, lequel a des projets applicatifs réalisés dans la domotique, le commerce électronique, l’automobile. On en entend régulièrement parlé.Mais c’est tout à fait insuffisant… il faut se réveiller, tel est l’objectif de l’article. Je vous incite vivement à le lire.

    ________
    quelques précisions :
    ==> A propos de RENATER, voir un article du Journal du Net
    ==> Voir aussi le livre paru en 2002 aux éd. Economica “e-Europe, la société européenne de l’information en 2010” écrit par Maurice Baslé et Thierry Pénard
    ==> A propos du plan e-Europe 2010, cf une explication à propos de l’accessibilité au web (réalisé par une association de handicapés) et un point sur la stratégie de l’UE en matière de TIC et sur la compétitivité des territoires (réalisé par un membre de la Commission européenne). Bien que de 2005, il est intéressant.

    oui d’accord, mon titre est un peu provocateur !
    Je m’explique
    J’ai toujours trouvé qu’une recherche simple (ou plus spécifique par un .doc ou autre) complétée par une recherche “image” apportait des sites qui n’apparaissaient pas autrement.
    J’avais raison : Google a mis en place une nouvelle version intitulée “Google Universal Search” qui mélange pour chaque requête les résultats issus des différents outils de recherche de Google (Web, actualités, images, vidéos, blogs, etc.)
    C’est un vrai plus. Elle n’existe que sur le site anglais, mais ce n’est pas bien grave.

    Ne pas hésiter à consulter et s’inspirer de ce .pdf publié par un site poitevin spécialisé en intelligence économique.

    Le métamoteur ALLTH permet d’affiner les résultats en utilisant deux menus déroulant (à gauche de la page) permettant de mettre l’accent sur certains termes.
    Les recherches sont lancées simultanément dans plusieurs outils de recherche (Google, Yahoo, Amazon… et permet d’en ajouter d’autres dans une liste proposée)

    url : http://allth.at/
    A ce jour, il est en mode bêta.

    (source : Abondance)

    « Previous PageNext Page »