Internet - articles archivés

Abonnez-vous au flux RSS feed pour cette catégorie uniquement

 

Pourquoi ce billet ?

– Parce que j’ai toujours veillé à ce que mes étudiants nancéens à qui je devais apprendre à réaliser leur quatrième de couverture pour leur rapport de stage ouvrier puissent donner une information homogène sur les entreprises où ils réalisaient leur stage. Le but étant de pouvoir reprendre ces informations harmonisées dans la base de données de la bibliothèque.

– Parce qu’en tant que responsable de centres de documentation, je voulais qu’au fil des intervenants, des consultants et des années l’interrogation de recherche puisse se faire sur une base officielle, applicable par tous et garantir la pérennité des intitulés.

– Parce que j’ai voulu signaler un changement d’édition du code NAF : il évolue au 1e janvier 2008.

Quelques explications

Chaque entreprise se voit attribuer à sa naissance quatre numéros d’identification :

Le numéro SIREN
Il est enregistré dans le répertoire SIRENE® (Système Informatique pour le Répertoire des Entreprises et de leurs Établissements) créé par un décret de 1973 et dont l’accès est payant
Il est composé de 9 chiffres par groupe de trois.
Quatre possibilités pour retrouver ce numéro : Euridile (site officiel du Registre National du Commerce et des Sociétés en partie gratuit), Cofacerating et Societe.com et Verif
Il est obligatoire et doit figurer sur tous les documents de l’entreprise (plaquettes de communication, factures, courrier…)
Il correspond en quelque sorte à notre n° de Sécurité sociale unique par individu.

Le numéro SIRET
Il identifie géographiquement l’établissement d’une entreprise
Il se compose de 14 chiffres correspondant au SIREN (9 chiffres) + le NIC (5 chiffres). Il peut donc y avoir plusieurs SIRET à partir d’un seul SIREN si l’entreprise à plusieurs établissements.
Tout établissement reçoit un SIRET, même pour une entreprise qui exploite un établissement unique. Un numéro attribué à l’établissement d’une entreprise donnée n’est plus jamais utilisé au profit d’un autre établissement de cette entreprise.
L’unité SIRET est liée à la personne (au sens juridique). Si plusieurs unités SIREN exercent leur activité dans un même lieu, elles y exploitent autant d’unités SIRET différentes.
L’unité SIRET est localisée. Une unité SIREN est constituée d’autant d’unités SIRET qu’il y a de lieux différents où elle exerce son activité.

Le code NAF (Nomenclature des Activités Françaises)
Anciennement code APE, cette nomenclature liste l’ensemble des activités économiques en attribuant à chacune un code.
L’organisme déclaré reçoit le n° qui correspond à l’activité qu’il a décrit lors de son inscription à l’INSEE
On peut consulter la liste sur le site de l’INSEE
Attention : la NAF est révisée et va être appliquée à partir de janvier 2008 afin de mieux harmoniser les niveaux mondial, européen et français et favoriser les comparaisons au niveau international.
Explications sur cette révision et sa mise en application sur le site de l’INSEE

le n° de TVA intracommunautaire
dont je ne parlerai pas plus car il est hors de notre sujet.

___________________

Sources :
http://www.motamot.com/zoompages/siret.html
http://www.sirene.tm.fr/fenetre/fenetre.asp?contenu=siret
http://www.insee.fr/fr/nom_def_met/nomenclatures/naf-cpf_2008/naf2008.htm
http://cybervigie.com/magazine.php3?id=28

Un premier compte-rendu de la conférence sur Wikipédia qui a eu lieu mi-octobre vient d’être publié sur le site de la BBF. D’autres vont suivre tout prochainement sur le site de la conférence.

J’ai assisté vendredi 7 décembre à une autre conférence sur Wikipédia, faite cette fois par Laure Endrizzi à l’ADBS Auvergne. Elle est ingénieur documentaliste chargée d’études pour la veille scientifique et technologique à l’Institut National de Recherche Pédagogique de Lyon.

    Ses thèmes

  1. – Historique du projet Wikipédia
  2. – Principes de base et succès de Wikipédia
  3. – Wikipédia, blogs, web 2.0 et open access
  4. – Modes de gouvernance et objectifs de développement
  5. – Spécificités du wiki et rudiments de syntaxe
  6. – Le paradoxe de la qualité et les questions de stabilité
  7. – Rôles et profils des Wikipédiens
  8. – Modèle éditorial hybride

Quelques points communs ressortent de ces conférences et des multiples articles, billets… parus sur le sujet ==>

  1. le problème des sources (les sources des contributeurs ne sont pas citées)
  2. importance égale des articles quelque soit le sujet (*)
  3. la validation des données (la notion traditionnelle de responsabilité intellectuelle et morale d’auteurs et d’éditeurs est bouleversée. Certains regrettent qu’il n’y ait pas seulement ‘que’ des expert (comme Citizendium(**)))
  4. la formation du grand public et des élèves
  5. publier des versions stables

Une remarque intéressante signalée par David Liziard dans son compte-rendu signalé au début de ce billet, comme quoi Wikipédia essuyait quasiment seule les critiques de validation de l’information, alors que c’est au niveau de l’ensemble des médias et des relais d’informations qu’elles devraient se poser aujourd’hui
Et je pense alors aux informations manquantes sur les auteurs, leurs sources, la datification des documents (cf mon billet “Rogntudjiu“, etc…

Wikipédia et Wikimédia, quel distinguo ?

    – La Fondation Wikimédia a pour vocation a de promouvoir la croissance et le développement de projets contenant du savoir libre fondés sur le principe du Wiki, et d’en distribuer le contenu publiquement et gratuitement
    Elle est actuellement présidée par une française, Florence Nibart-Devouard.
    Parmi les projets autres que Wikipédia : Wiktionary, Wikiquote, Wikibooks, Wikisource, Wikinews, Wikiversity, etc…

    – L’association Wikimédia France créée en 2004 regroupe des utilisateurs de Wikipédia. Elle promeut et diffuse la connaissance libre ; elle soutien des projets de la Wikimedia Foundation.
    Pour exemple, c’est elle qui a organisé le colloque d’octobre.

    ___________________________

    (*) L’étymologie du mot “Encyclopédie” = “faire entrer dans le cercle de la pédagogie” d’après Alain Rey me semble justifier ce côtoiement, car un jeune qui trouve son bonheur sur un sujet qui nous semble ‘léger’ sera ainsi tenté d’y revenir pour des choses plus sérieuses.

    (**) Citizendium est le concurrent de Wikipédia. Il fait appel à des experts pour guider le public dans l’écriture des articles. A voir si cela ne va pas trop ralentir les choses. Car la cause de l’échec de Nupédia (origine de Wikipédia) a été la lenteur de la mise en ligne et à entraîné sa mort.
    A noter que la plupart des experts volontaires

    ont un doctorat et la plupart sont des anglophones qui vivent hors des Etats-Unis, y compris en France. « Nous avons téléchargé tout Wikipédia et, pour l’instant, nous avons 400 articles qui sont estampillés “CZ Live”, c’est-à-dire qu’ils ont été réécrits ou modifiés de manière substantielle », explique Larry Sanger qui ajoute que toutes les modifications sont signées (source : 01Net.com).

D’accord, il n’y a eu que 204 réponses, mais c’est déjà un début de statistiques. Les chiffres sont intéressants.

L’un des participants à cette enquête signale une autre enquête menée par BuzzParadise (Filiale du groupe de communication Vanksen Group, BuzzParadise est une plateforme européenne de communication à travers les blogs. explique Wikipédia)
Je pense l’avoir trouvée, mais à confirmer.

Je vous signale que le 17 décembre au CNAM se tiendra un séminaire organisé par le Groupe “Acteurs et production numérique éditoriale
Son accès est libre après inscription.

Ce Groupe rassemble des chercheurs en Sic et en Stic et des représentants des différentes filières professionnelles pour “créer, valider, légitimer et publiciser les matériaux susceptibles d’être retenus comme des documents numériques

Cette troisième journée a pour objectif de faire le point sur

  • la notion de réseau social en faisant converger différentes approches : l’observation des pratiques actuelles de structurations collectives en ligne et leurs dépendances sociotechniques ;
  • l’estimation du rôle que prennent les outils dans l’agrégation des identités et la traçabilité documentaire ;
  • l’étude des discours d’accompagnement et du partage des territoires de la publication ;
  • la construction d’outils pour l’observation par les sciences humaines de l’architecture documentaire du web
  • .

    Les deux journées précédentes ont eu lieu en juin et en octobre 2007. Dommage, les interventions ne sont pas en ligne !… Si quelqu’un a le bras long…

    Pour ceux qui connaissent le monde des archives ouvertes, j’enfonce des portes ouvertes (sic).
    Pour les autres qui s’intéressent au sujet ou qui ont un besoin ponctuel en matière de littérature grise … qui est de moins en moins grise :-), je vous propose d’aller sur le site http://www.archives-ouvertes.fr/
    Son serveur appelé “Hal” (qui veut dire “Hyper Articles en Ligne”) permet de “déposer et de rendre publics des documents scientifiques de toutes les disciplines. Le dépôt est fait soit par un des auteurs du document ayant l’accord des autres auteurs, soit par une personne autorisée (documentaliste de laboratoire par exemple)”.

    Il donne accès aux portails suivants :

    un portail générique pour accéder à
    – des articles
    – des thèses
    – des cours

    cinq portails thématiques, citons ceux qui vous intéresseront sans doute le plus
    – sciences de l’environnement
    – éducation & technologies de l’information & de la communication
    – sciences de l’information et de la communication

    trois portails institutionnels concernant
    – les établissements de recherche
    – les grandes écoles
    – les universités

    Un portail spécifique aux sciences de l’homme & de la société

    Quand est-ce que les webmestres comprendront que ne pas dater leurs pages les rend inutiles ????
    L’un des avantages du blog, c’est que même les étourdis datent leur billet.

    DATER/SIGNER = B.A. BA, sinon zéro pointé.

    Et vous, qu’en pensez-vous ?

    Nous savons tous que s’accorder ‘1 p’tit moment’ dans une recherche sur le Net… s’est courir grand risque de …déborder.

    C’est ce qui fait dire à Christian Vanden Berghen (BrainsFeed) que “La recherche d’information est chronophage
    Et là dessus nous sommes tous d’accord.

    A ce titre il rappelle deux lois contradictoires :
    – la loi de Parkinson, selon laquelle “une tâche à accomplir remplira toujours le temps qu’on lui accorde pour s’accomplir
    – la loi de Hofstadter, selon laquelle “une action prendra toujours plus de temps qu’on ne croit

    Conclusion idiote :
    Je me rappelle de l’histoire du sage enseignant qui illustrait le problème de la gestion de ses activités dans le temps par un pot que l’on remplissait de pierres… dur dur de déterminer si la recherche que j’entreprends je dois la déterminer comme une grosse pierre ou un gravillon !

    Rappel de l’histoire :

    Un expert en gestion du temps parlait un jour à un groupe d’étudiants. Il illustra son cours par une petite démonstration qu’ils n’oublieront jamais.
    Il posa sur son bureau une grosse jarre en verre transparent et y installa soigneusement, une par une, une douzaine de pierres grosses comme le poing. Quand la jarre fut remplie et qu’il était impossible d’y ajouter une seule pierre, il demanda aux étudiants:
    – Cette jarre est-elle pleine?
    – Oui, répondirent-ils à l’unisson.
    – Vraiment? dit l’expert.
    Il tira un sac de gravier qui se trouvait sous la table, il mit un peu de gravier dans la jarre en la secouant pour faire glisser les petits cailloux dans les espaces entre les pierres. Puis il demanda au groupe:
    – Est-elle pleine maintenant?
    – Probablement pas, dit un étudiant.
    L’expert attrapa sous la table un sac de sable. Il versa dans la jarre du sable qui s’infiltra dans tous les espaces qui restaient. A nouveau il questionna la classe:
    – Et maintenant, est-elle pleine?
    – Non, crièrent les étudiants.
    L’expert prit une carafe d’eau et se mit à verser jusqu’à ce que la jarre soit remplie à ras bords. Puis il se tourna vers le groupe et dit:
    – Quelle leçon peut-on tirer de cette démonstration?
    Un étudiant leva la main et dit:
    – Même si on est très occupé, on peut toujours en faire plus.
    – Non, répondit l’expert, là n’est pas la question. Voilà ce que cet exemple nous enseigne: si vous ne mettez pas les grosses pierres en premier, vous ne pouvez pas les mettre du tout. Demandez-vous quelles sont les « grosses pierres » de votre vie. Et, bien sûr, mettez-les d’abord dans la jarre.

    Pour tout savoir sur le sujet, voir le livre blanc intitulé “valorisation de l’information déstructurée” publié par l’Aproged,l’Apil et le Cigref, références fiables s’il en est.

    Objectif d’une information déstructurée ? (lu sur le livre blanc)

    C’est de rendre des données (textes, images, sons…) calculables. Ainsi ce n’est pas la nature de l’information mais “l’utilisabilité” d’une donnée qui marque la frontière entre structuré et non-structuré.

    L’ECM – ou gestion de contenu d’entreprise – “regroupe les outils et les méthodes qui permettent d’exploiter et de valoriser l’information non-structurée”

    Source : m’ci Echo’doc

    Nous en sommes à réflechir, à nous adapter au web2.0 et voilà que je lis qu’une 4e (!!?!!)conférence sur ‘LeWeb3’ va avoir lieu à Paris les 11 et 12 décembre (au prix d’entrée de plus de 500 € tout de même !)

    Et là, un vent de découragement me souffle au visage : comment ? 4 ans ! et j’ignorais ? grrrr :-((

    Eh bien, recherche faite il s’agit d’après un descriptif d’un évènement consacré aux acteurs du web et aux jeunes pousses.
    En creusant la question (mais à vous de me dire si je me trompe), il s’agit d’y traiter des aspects techniques, économiques, des blogs pour une utilisation entrepreneuriale (*)

    Donc, ouf, le web 2.0. reste bien d’actualité…

    Ce qui suit est rajouté après le commentaire de Nicole qui m’a permis de trouver la définition du web 3.0 en général et pas seulement de la conférence : Tim O’Reilly donne comme spécificité du web 3.0 de “tirer parti de l’intelligence collective” par le biais de l’intelligence artificielle et de la sémantique pour mieux organiser, détecter l’information.

    En conséquence, Jean-Phillipe Accart en conclut que “si le Web 1.0 a été l’oeuvre des informaticiens, si le Web 2.0 est presque dans le domaine public, le Web 3.0 devrait clairement être celui de nos professions”. Voyez son billet pour approfondir ce dernier point, très important.

    Allez les jeunes, il y a plein de travail intéressant devant vous, et pour les autres du pain sur la planche pour garder le vent !
    ___________________

    (*) …et non entreprenariale 😉

    Ce wiki se veut répertoire de ressources en matière de moteurs de recherche classés par catégories :
    – news
    – les lettres d’info
    – les personnalités
    – les wikis
    – …

    Un autre classement propose une liste de moteurs par pays et par secteurs d’activité, des blogs, un glossaire, des associations, etc.

    Ne pas oublier que
    – c’est une version bêta donc perfectible
    – c’est un wiki, donc on peut remonter ses manches
    – l’objectif recherché est marketing (vente de cours)

    source : m’ci les infostratèges

    « Previous PageNext Page »