les Examens de Communication OFPPT

Télécharger les Examens de Communication OFPPT et autres Examens ...
=> Comment ça marche : Attendez 5 seconds puis cliquer sur  passer l'annonce et télécharger :)
Examen ANGLAIS TECHNIQUE pour tous les Filières:
Année 2012 Variante 1 :
                                             http://adf.ly/QbggS

Examen ANGLAIS TECHNIQUE pour tous les Filiéres:
Année 2012 Variante 2  :
                                             http://adf.ly/QbglZ

Examen ARABE pour tous les Filières:
Année 2012 Variante 1 :
                                             http://adf.ly/Qbgu0

Examen ARABE pour tous les Filières:
Année 2012 Variante 2 :
                                             http://adf.ly/QbgzK

Examen FRANÇAIS pour tous les Filières:
Année 2012 Variante 1 :
                                             http://adf.ly/Qbh3Z

Examen FRANÇAIS pour tous les Filières:
Année 2012 Variante 2 :
                                             http://adf.ly/Qbh7X

Examen Pratique Pour TDI :
Année 2012 Variante 1    Page 1 et 2   :
                                             http://adf.ly/QbhOZ

Examen Pratique Pour TDI :
Année 2012 Variante 1    Page 3 et 4  :
                                             http://adf.ly/QbhQr

Examen Pratique Pour TDI :
Année 2012 Variante 2    Page 1 et 2  :
                                             http://adf.ly/QbhSL

Examen Pratique Pour TDI :
Année 2012 Variante 2    Page 1 et 2 :
                                             http://adf.ly/QbhTs

Architecture d'un poste de travail 3. Constitution de l'ordinateur

Architecture d'un poste de travail 3. Constitution de l'ordinateur

Un ordinateur est un ensemble de composants électroniques modulaires, c'est-àdire
des composants pouvant être remplacés par d'autres composants ayant
éventuellement des caractéristiques différentes, capables de faire fonctionner des
programmes informatiques. On parle ainsi de « hardware » pour désigner
l'ensemble des éléments matériels de l'ordinateur et de « software » pour
désigner la partie logicielle.

Architecture d'un poste de travail 2. Types d'ordinateurs

Architecture d'un poste de travail 2

2. Types d'ordinateurs

Toute machine capable de manipuler des informations binaires peut être qualifiée d'ordinateur, toutefois le terme « ordinateur » est parfois confondu avec la notion d'ordinateur personnel (PC, abréviation de personal computer), le type Architecture d'un poste de travail
d'ordinateur le plus présent sur le marché. Or il existe beaucoup d'autres types
d'ordinateurs (la liste suivante est non exhaustive) :

Architecture d'un poste de travail

Architecture d'un poste de travail 1

1. Introduction

Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous forme binaire, c'est-à-dire sous forme de bits. Le mot « ordinateur » 

Android

Android

Android est un système d'exploitation open source  utilisant le noyau Linux, pour smartphones, tablettes tactiles, PDA et terminaux mobiles conçu par Android, une startup rachetée par Google, et annoncé officiellement le 5 novembre 2007. D'autres types d'appareils possédant ce système d'exploitation existent, par exemple des téléviseurs, des radio-réveils ou des autoradios et même des voitures.
android

Hackers célèbres

Hackers célèbres






  • Daniel J. Bernstein : auteur de qmail et djbdns, également mathématicien et cryptographe.
  • Bill Landreth : auteur du best-seller Le Pirate de l'Informatique : Guide de la sécurité informatique en 1985.
  • Kevin Mitnick : s'infiltra dans certains des plus grands sites internet sécurisés, comme celui du Pentagone.
  • Hacker (sécurité informatique)

    Hacker (sécurité informatique)

    Un hacker est une personne qui montre une passion pour la compréhension du fonctionnement intime des systèmes, ordinateurs et réseaux informatiques en particulier.
    En sécurité informatique, un hacker est un spécialiste dans la maîtrise de la sécurité informatique et donc des moyens de déjouer cette sécurité. Certains d'entre eux utilisent ce savoir-faire dans un cadre légal et d'autres l'utilisent hors-la-loi.
    Hacker, dans sa signification relayée par les médias de masse, se réfère aux chapeaux noirs (pirate informatique). Afin de lever l'ambiguïté sur le terme hacker, cracker est souvent utilisé pour désigner les black hats, le démarquant ainsi de la culture académique des hackers telle que définie par Eric Raymond

    SSII en France

    SSII en France

    L’appellation « SSII » a succédé au début des années 1980 à celle de « SSCI » (Société de services et de conseils en informatique). Les SSCI ont élargi leur gamme d'activités et le terme « ingénierie » remplace le terme « conseil » jugé à l'époque comme trop associé à de petits cabinets. L'ingénierie recouvre en effet les différents métiers du conseil, des études, de l'ingénierie de systèmes, de l'intégration de systèmes, de l'assistance technique et des progiciels.

    Société de services en ingénierie informatique

    Société de services en ingénierie informatique

    Une société de services en ingénierie informatique (SSII) (prononcez [S-S-2-I] ou [2-S-2-I] ) est une société de services spécialisée en génie informatique. Elle se caractérise par ses compétences techniques dites de « maîtrise d’œuvre ». Le Syntec Numérique la distingue du métier d'éditeur de logiciel ou de celui de la sociétés de conseil en technologie spécialisée en « maîtrise d'ouvrage ».

    Les grands métiers de l'informatique

    Les grands métiers de l'informatique

    Métiers de l'informatique

    Les métiers de l'informatique regroupent :
    • Les administrateurs de bases de données ou DBA : chargés du bon fonctionnement d'une base de données et/ou d'un système de gestion de base de données.
    • Les administrateurs réseau : chargés de gérer les comptes et les machines d'un réseau.
    • Les administrateurs système : chargés de la maintenance applicative des serveurs
    • Les analystes : chargés de spécifier techniquement les concepts définis par le concepteur en composantes informatiques.

    L'informaticien logiciel

    L'informaticien logiciel

    travail d'un informaticien logiciel (programmeur) est d'utiliser ses connaissances en langages informatiques (Assembleur, Cobol, RPG, C, C++, Java, C#, VB, VBA...) afin de concevoir et de superviser le développement d'applications informatiques, ou de logiciels.
    Ce travail se traduit concrètement par différentes activités, souvent liées à l'âge et l'expérience de l'informaticien logiciel :

    Le métier d'informaticien

    Informaticien

    Un informaticien ou une informaticienne est une personne qui exerce un métier dans l'étude, la conception, la production, la gestion et la maintenance des systèmes de traitement de l'information.
    informaticien

    Infographie 2D, Infographie 3D,

    Infographie 2D

    Ces images sont créées par des techniques travaillant directement sur les deux dimensions de l'image, que ce soit :
    en créant des formes ex nihilo (dessin, peinture, etc),
    ou par des processus algorithmiques divers (images fractales),
    ou par traitement d'images, c’est-à-dire modification des propriétés de chaque pixel d'une image d'origine (photographique ou dessinée, etc.). Ces modifications peuvent porter sur les dimensions des formes, leur luminance, leur couleur. Elles passent en particulier par un certain nombre de filtres (opérations mathématiques) dont les fondamentaux sont apparus avec Photoshop.

    Infographie

    Infographie

    L'infographie (aussi appelée improprement image de synthèse, terme qui se rapporte plus spécifiquement à la création d'images à vocation perspectiviste irréalisables hors de l'informatique) est l'art de l'image numérique. Elle définit les graphismes créés et gérés par ordinateur, dont la gestion se base sur une station graphique composée d'éléments matériels comme le processeur et la carte graphique (leurs puissances déterminent la vitesse de réponse et de calcul des unités graphiques), les outils d'acquisition comme le numériseur ou la caméra banc-titre, les outils de manipulation comme la souris ou la tablette graphique. Elle se compose également d'outils de stockage comme le disque dur ou la clé USB et d'outils de restitution comme l'imprimante ou le moniteur d'ordinateur, d'une interface utilisateur qui permet l'interaction entre l'utilisateur et l'ordinateur et enfin du format de données qui assure l'intermédiaire entre l'image rendue et les éléments numériques de celle-ci.
    Lors de l'introduction du concept dans la langue française vers les années 1970, elle désigne uniquement les graphismes, que l'on appelle alors « infographies » (information par le graphisme), destinés à mettre en image des informations généralement statiques au moyen de diagrammes, de cartes ou de schémas. Mais le concept d'infographie s'étant rapidement élargi à tous les graphismes produits par des moyens informatiques. En anglais le terme est resté : infographics signifie graphisme d'information. C'est donc un faux-ami.
    On la distingue par le terme d'« infographie de presse », domaine où les infographies sont les plus utilisées1. Cette activité est liée aux arts graphiques par les personnes qui l'appréhendent comme une forme d'expression artistique.
    Il s'agit aussi de la technique qui consiste à finaliser le travail du graphiste à l'aide de l'outil informatique. Ce métier est né avec l’avènement de l’informatique (il est la continuité du graphisme).
    Infographie


    Infographie

    Infographie

    Histoire

    Le terme infographie est un mot-valise formé à partir d’informatique et de graphie. Originalement il s'agit d'une appellation déposée en France par la société Benson en 19742,3,4. Mais on le mentionne au moins depuis 1973 (IBM Systems Journal) et, à intervalles irréguliers, depuis la création expérimentale d'hologrammes par ordinateur5.
    Dès 1978, le laboratoire central de physique appliquée de l'université Johns-Hopkins diffuse un cours qui sera traduit dans l'ouvrage de David F. Rogers Mathematical elements for computer graphics (adapté en français 10 ans plus tard par Jacques J. Lecœur sous le titre Algorithmes pour l'infographie).
    Elle devient dès lors une discipline majeure tant dans le dessin au trait que dans le rendu d'objets naturels. L'infographie s'empare de la gestion, la médecine, la télévision, l'industrie du spectacle (jeux vidéo) et du film (Tron) ainsi que toutes les disciplines scientifiques, mathématiques, aéronautiques, mécaniques et tous les domaines de conception en général, alors que l'informatique sortait tout juste du stade de la programmation sur carte perforée.
    L'infographie originelle s'attache davantage aux techniques de traitement d'images (balayage de trame, fenêtrage, algorithme du peintre et autres de suppression de parties cachées, compression, recadrage, ombrage, couleur) qu'à la sémiologie graphique. Son évolution ne peut se comprendre que dans l'analyse de sa production numérique, tant dans ses traitements statiques ou dynamiques (animation) que dans ses résultats.
    Au début des années 1990, presque tous les outils techniques étaient prêts pour être confiés aux graphistes. Les nouveaux artistes numériques se sont approprié le terme d'infographiste alors réservé aux ingénieurs concepteurs de ces outils.

    Pratique traditionnelle

    L’infographiste (ou infographe) est une personne qui maîtrise le travail de l'image (2D, 3D, logiciels PAO, Web, etc.). C'est un spécialiste de l'image et de l'informatique. Il utilise des logiciels spécifiques dits de PAO (Publication assistée par ordinateur) pour la mise en page, la retouche de photos et d’images, le dessin vectoriel, la création de site web, etc.
    Il existe plusieurs façons d'accéder à cette profession.
    Tout d'abord, on retrouve dans cette branche des passionnés qui ont fait de leur passion leur métier. La plupart autodidacte, c'est la persévérance, la documentation et la manipulation intensive des logiciels d'infographie qui leur à permis de vivre de cette profession.
    Il est également possible d'accéder à cette profession par le biais d'écoles d'art, de formations professionnelles etc.
    L’infographiste est amené à collaborer étroitement avec d’autres professionnels : directeur artistique, graphiste, photographe, scénariste, animateur 3D, architecte, imprimeur, webmaster, programmeur, chargé de communication
    Les termes généraux pour désigner un pratiquant de l'infographie est « infographiste » ou « infographe ». L'« infographiste » étant historiquement un graphiste 2D utilisant l'informatique, alors que l'« infographe » crée des images (graphe) à partir d'information (info), ce qu'est plus un modeleur 3D ou un imageur de synthèse dont le travail ne peut se réaliser hors de l'outil informatique. Dans le domaine du journalisme, on utilise « infographiste de presse », « rédacteur graphiste », « éditeur graphiste » ou « illustrateur infographiste » selon l'activité journalistique et/ou graphique de la personne au sein de l'équipe de rédaction. Dans les arts graphiques, on distingue principalement ceux qui manipulent des images en deux dimensions de ceux qui manipulent des objets dans un espace en trois dimensions.
    On retrouve la première approche principalement dans la bande dessinée où la mise en couleur, voire l'encrage sont effectués au moyen de logiciels de dessin assisté par ordinateur, dans la communication visuelle et la publicité où la retouche d'images est omniprésente notamment pour la réalisation d'une identité visuelle, dans les jeux vidéo où le pixel art fut prédominant jusqu'à la cinquième génération de consoles lorsque la 2D migre vers les textures.
    On retrouve la 3D principalement dans l'architecture où on utilise les modeleurs 3D pour préfigurer l'apparence d'un bâtiment dont on prévoit ou promeut la construction, le prototypage virtuel d'objets 3D qui permet de montrer une réalité virtuelle tendant à représenter l'objet avant réalisation matérielle, dans les films d'animation publicitaires ou cinématiques où la puissance fournie par les solutions 3D est exploitée au maximum. On peut également la retrouver dans les jeux vidéo où les phases de jeu actives en 3D sont optimisées au maximum pour pallier les limitations matérielles qui ne permettraient pas le temps réel le cas échéant.
    Parmi les outils d'acquisition, on peut citer le crayon optique, la palette graphique, le numériseur de document, la souris, la tablette graphique ou encore le trackball. Les outils de restitution les plus courants sont l'imprimante et le moniteur d'ordinateur.

    Tension électrique

    Tension électrique

    La tension électrique est la circulation du champ électrique le long d'un circuit. Elle est souvent confondue avec la différence de potentiel électrique entre deux points d'un circuit électrique, car les deux notions coïncident en régime stationnaire et sont approximativement équivalentes dans de nombreuses applications pratiques en régime variable.
    Néanmoins, dans un cas général, en régime variable, la circulation du champ électrique n'étant plus conservative en raison du phénomène d'induction électromagnétique, la tension et la différence de potentiel ne sont alors plus synonymes1,2. Dans ce cas général, la différence de potentiel perd sa signification physique et doit être remplacée par la notion de tension2.
    La tension est souvent nommée voltage par le grand public, mais ce terme n'est pas utilisé professionnellement car il s'agit d'un anglicisme.

    Poste électrique

    Poste électrique

    Selon la définition de la Commission électrotechnique internationale, un poste électrique est la « partie d'un réseau électrique, située en un même lieu, comprenant principalement les extrémités des lignes de transport ou de distribution, de l'appareillage électrique, des bâtiments, et, éventuellement, des transformateurs »1.
    Un poste électrique est donc un élément du réseau électrique servant à la fois à la transmission et à la distribution d'électricité. Il permet d'élever la tension électrique pour sa transmission, puis de la redescendre en vue de sa consommation par les utilisateurs (particuliers ou industriels). Les postes électriques se trouvent donc aux extrémités des lignes de transmission ou de distribution. On parle aussi de sous-station, entre autres dans les chemins de fer.

    Réseau électrique

    Réseau électrique

    Un réseau électrique est un ensemble d'infrastructures permettant d'acheminer l'énergie électrique des centres de production vers les consommateurs d'électricité.

    Il est constitué de lignes électriques exploitées à différents niveaux de tension, connectées entre elles dans des postes électriques. Les postes électriques permettent de répartir l'électricité et de la faire passer d'une tension à l'autre grâce aux transformateurs.
    Un réseau électrique doit aussi assurer la gestion dynamique de l'ensemble production - transport - consommation, mettant en œuvre des réglages ayant pour but d'assurer la stabilité de l'ensemble.
    NB : Les tensions indiquées sont des tensions efficaces.


    accès outdoor


    Historique

    Un réseau électrique étant composé de machines de production et de consommation, ainsi que de structures (lignes, transformateurs) pour les relier, les réseaux électriques ne sont apparus que vers la fin xixe siècle, lorsque chaque élément avait atteint une maturité technologique suffisante.

    Les premiers réseaux à courant continu

    Thomas Edison
    Lors de la première moitié du xixe siècle, les inventeurs mettent au point de nombreux types de moteurs électriques à courant continu, mais leur utilisation de manière industrielle ne sera permise qu’après l’invention de la dynamo (génératrice de courant continu) par Zénobe Gramme en 1869, qui sera rapidement améliorée1.
    À l'Exposition internationale d'Électricité de Paris de 1881, Marcel Deprez présente pour la première fois une installation de distribution d'énergie électrique alimentée par 2 dynamos. À l’automne 1882, les premiers réseaux électriques apparaissent simultanément à New York et Bellegarde, en France1. Ils sont très locaux et utilisent le courant continu.
    Thomas Edison a joué un rôle déterminant dans le développement de l’électricité : il fonde en 1878 l'Edison Electric Light Co (qui deviendra en 1892 General Electric), dépose le brevet de l’ampoule électrique en 1879, puis crée le réseau électrique de New York. Ce dernier, qui avait essentiellement pour but l’éclairage, se développe rapidement : d’une puissance de 1200 ampoules en 1882, il passe à 10 000 ampoules l’année suivante. Ce réseau, qui souffre de nombreuses pannes, est constitué de petites centrales électriques (30 kW) et d’un réseau de distribution à 110 V. Il est cependant très limité car l’acheminement de l’électricité n’est possible que sur quelques kilomètres.


    À cette période les premières expérimentations de transport de l’énergie électrique se développent et sont menées notamment par Marcel Deprez, qui utilise du courant continu. Ce sont cependant des échecs relatifs car elles ne permettent pas le transport de puissances industrielles (Deprez réussi en 1882 à transporter 400 W sur 57 km de distance, mais avec un rendement global de seulement 30 %. Les ingénieurs Lucien Gaulard et John Gibbs travaillent quant à eux sur le courant alternatif. Bien que le transformateur soit connu depuis 1837, ils mettent au point en 1884 un transformateur de forte puissance utilisant du courant alternatif triphasé, ce qui permet de changer facilement le niveau de tension. La même année ils démontrent l’intérêt du transformateur en mettant en service une ligne de 80 km de long alimenté en courant alternatif sous 2 000 V.

    La victoire du courant alternatif triphasé


    George Westinghouse, ingénieur et entrepreneur américain qui a créé sa propre compagnie d'électricité, est intéressé par la technologie du courant alternatif. En 1887, il achète les brevets du transformateur de Gaulard et embauche Nikola Tesla qui invente l’alternateur triphasé en 1891. Cette même année la première installation triphasée est mise en place aux environs de Francfort, avec une ligne de 175 km.

    Aux États-Unis les réseaux en courant continu poursuivent leur développement, mais sont limités en taille : chaque centrale ne peut alimenter en électricité qu’une zone d’environ 5 km de diamètre3, ce qui pose problème en dehors des villes. En parallèle se constituent de petits réseaux urbains en courant alternatif. Une opposition sévère fait rage à cette époque aux États-Unis entre Edison (défenseur du courant continu) et George Westinghouse avec Tesla (défenseur du courant alternatif). Edison insiste notamment sur le risque du courant alternatif en haute tension pour les êtres vivants, allant jusqu'à organiser des démonstrations publiques où il électrocute différents animaux, pour prouver la dangerosité du courant alternatif, et va jusqu’à financer la macabre invention de la chaise électrique3. Après l'exécution de William Kemmler, Edison dira :« Il a été Westinghousé ».
    La bataille décisive entre courant continu et alternatif se déroule autour d’un projet d’alimentation électrique de l’industrie de Buffalo par une centrale hydraulique de 75 MW située à Niagara Falls, à 32 km de distance3. Edison proposait un projet en courant continu tandis que Tesla et Westinghouse proposaient un système en courant alternatif. Le contrat fut donné à Westinghouse. En 1896, la mise en service de la première ligne industrielle en triphasé fut un succès total et conduit pour un siècle au moins à imposer universellement le courant alternatif triphasé comme moyen de transport de l’énergie électrique4, mieux adapté à cette époque au transport sur de longues distances.
    Néanmoins, à la fin du XXe siècle, alors que l'interconnexion à échelles pan-continentales se développe, les progrès techniques redonnent un intérêt au courant continu haute tension (CCHT) pour un transport longue distance gaspillant moins d’énergie avec moins de pertes en lignes. C'est par exemple la solution retenue pour le projet Desertec, afin de transporter jusqu'en Europe centrale de l'électricité solaire produite en Afrique tropicale.

    L’interconnexion progressive des réseaux



    À la fin du XIXe et au début du xxe siècle, les usages de l’électricité se multiplient, aussi bien au niveau domestique qu'industriel (notamment l’électrification des tramways, métros et chemins de fer). Dans chaque grande ville s'implantent des compagnies d'électricité. Ces dernières construisent des centrales électriques et de petits réseaux locaux, chacun utilisant des fréquences et des niveaux de tension différents. Les opérateurs se rendent compte tardivement de l’intérêt d’utiliser une fréquence unique (indispensable à l’interconnexion des réseaux), et l’on voit apparaître finalement 2 standards de fréquence : le 60 Hz sur la majorité du continent américain et le 50 Hz quasiment partout dans le reste du monde.
    Dans la première moitié du xxe siècle les réseaux urbains des pays industrialisés se sont agrandis afin d’électrifier les campagnes. En parallèle, ces réseaux se sont interconnectés entre eux au niveau régional afin d'engranger des économies d'échelle sur la taille des centrales de production, et de mieux valoriser des ressources énergétiques géographiquement localisées, comme la production hydraulique située dans les zones montagneuses, éloignée des grands centres de consommation. Au fur et à mesure de l’augmentation des puissances appelées et des distances des lignes d’interconnexion, la tension d’exploitation des lignes a également augmenté (1re ligne à 220 kV construite en 1923 aux États-Unis, celle à 380 kV en 1930 en Allemagne). L’apparition en 1937 du premier turbo-alternateur refroidi à l’hydrogène, d’une puissance de 100 MW, ouvre la voie des centrales électriques de forte puissance.
    Une difficulté du développement des réseaux électriques est l’héritage du passé, car les infrastructures sont conçues pour durer plusieurs dizaines d’années. L’électrification des campagnes était aisée du fait de l’absence de tout réseau antérieur, permettant ainsi la mise en œuvre des standards du moment (en termes de tension et de fréquence). Au niveau urbain en revanche le problème était complexe car plusieurs réseaux non interconnectables coexistaient, conduisant à la multiplication des câbles. Les réseaux en courant continu ont ainsi subsisté très longtemps localement : jusque 1965 à Paris 5, et 2007 à New York3 !
    Dans les années 1950, les compagnies européennes se coordonnent pour uniformiser les tensions des réseaux de transports à 400 kV, ce qui permet en 1967 la première interconnexion des réseaux français, allemands et suisse à Laufenbourg(Suisse).
    La deuxième moitié du xxe siècle a connu en outre un renforcement des interconnexions intra-nationales et un développement significatif des interconnexions transnationales, dans le but principal de créer des capacités de secours mutuel entre opérateurs et d'améliorer globalement la stabilité des systèmes électriques, ainsi que, de façon plus ponctuelle, de créer des capacités d'échange d'énergie sur le long terme.
    L’Europe, avec sa forte densité de population et un niveau élevé de développement économique et industriel, présente un réseau électrique à la fois dense et maillé. La mise en place d'interconnexions physiques dans ces conditions, a nécessité l'adoption de règles communes de sûreté entre les exploitants des divers systèmes, souvent nationaux pour prévenir les risques d'incident de grande ampleur. Aujourd'hui, c'est l'ENTSO-E, anciennement UCTE, qui effectue cette coordination en Europe.
    Enfin plus récemment, dans le cadre de la construction du marché intérieur de l'électricité, la Commission européenne a choisi d'encourager le développement des capacités d'interconnexion transfrontalières, afin d'accroître les potentiels d'échange et l'interconnexion « commerciale » des marchés nationaux.

    Pour le xxie siècle, les réseaux sont confrontés à d'importants nouveaux défis :
    accueillir simultanément, sans diminuer significativement la sûreté et la qualité de fonctionnement du réseau, des unités de production stables et commandables (électricité hydroélectrique ou issue de centrales thermiques) ainsi que sources moins prévisibles et souvent pas ou très peu commandables, comme l'énergie solaire ou l'énergie éolienne. Ces sources d'énergie font dans de nombreux pays développés l'objet de programmes de développement à un rythme soutenu6.
    faciliter l'interaction entre les consommateurs et le système électrique notamment pour adapter la demande aux capacités de production lorsque cela est nécessaire.
    être plus économes en ressources non renouvelables qu'il s'agisse des matériaux pour leur construction comme des pertes qu'ils entraînent.
    accueillir de nouveaux usages comme le véhicule électrique.
    À ces sujets, les prospectivistes annoncent un réseau intelligent (Smart grid) plus souple et capable de mieux intégrer les sources d'énergies propres et sûres, mais diffuses et non continues telles que l'éolien et le solaire7.

    Influx nerveux

    Influx nerveux


    Tous les êtres vivants produisent de l'électricité pour animer les muscles ou pour transmettre de l’information par l'influx nerveux dans les nerfs. C'est ainsi que les médecins utilisent l'électrocardiographie et l'électro-encéphalographie pour diagnostiquer les pathologies du cœur ou du cerveau. La science qui étudie la production d'électricité chez les êtres vivants est l'électrophysiologie.

    Courant électrique

    Courant électrique

    Certains matériaux sont dits conducteurs de l’électricité (métaux, l'eau salée, le corps humain ou le graphite...), quand ils permettent aux charges électriques de se déplacer facilement.
    Lorsqu'on marche sur une moquette, le frottement des pieds sur le sol arrache des électrons et le corps se charge d'électricité statique. Si l'on touche alors une poignée de porte métallique, on ressent une petite décharge électrostatique accompagnée d'une étincelle, causée par le déplacement brutal des charges électriques qui s'écoulent vers le sol à travers les matériaux conducteurs de la porte.
    Cet écoulement, ou courant, est dû au fait qu'il existe à ce moment une différence de charges électrique entre le corps et le sol; Cette différence de charges est désignée différence de potentiel; la sensation ressentie provient du courant électrique généré par la différence de potentiel existante entre la poignée et le corps humain. On en déduit que :
    la moquette est un générateur de tension électrique et un isolant.
    le corps humain et la poignée de porte sont des conducteurs d’électricité.
    Pour créer un courant électrique, il faut donc un circuit de matériaux conducteurs qui permettra aux charges électriques de se déplacer ; et un système capable de créer une différence de potentiel entre les deux extrémités du circuit. Ce système est appelé un générateur : ce peut être par exemple une pile, une dynamo ou un alternateur.

    Sens du courant

    Dans un circuit électrique, on dit que le courant électrique, noté « I », circule entre les électrodes depuis le pôle positif vers le pôle négatif du générateur. Ce sens est purement conventionnel puisque le courant peut aussi bien être causé par des charges positives (manque d’électron) qui seront attirées par le pôle négatif du générateur, que par des charges négatives (les électrons) qui se déplaceront en sens inverse, vers le pôle positif, cependant on s’intéresse essentiellement au déplacement des électrons qui sont les seuls a pouvoir se déplacer (sauf dans des matériaux radioactifs en cours de désintégration).
    Dans certains cas, des charges positives et négatives se déplacent en même temps et ce double déplacement est responsable du courant électrique global. C'est le cas dans les solutions ioniques, où les cations et les anions se déplacent dans des sens opposés, et dans les semi-conducteurs comme une diode, où électrons et « trous » font de même. Les charges ne peuvent pas toutes se déplacer sous l'action du champ électrique et c'est ainsi que dans un fil électrique, les charges positives (les noyaux des atomes) restent fixes dans la structure du métal et ne peuvent constituer aucun courant électrique ; le courant électrique dans un métal est créé uniquement par le déplacement des charges négatives (les électrons libres) vers le pôle positif du générateur : c'est un courant électronique, cependant on utilise dans tous les cas le sens conventionnel « I » du courant, institué avant la découverte de la charge négative de l'électron.
    On parle de courant continu quand le sens reste constant et, de courant alternatif quand il change périodiquement. La fréquence d'un courant alternatif est le nombre de périodes par seconde. Elle s'exprime en hertz (Hz), par exemple le courant distribué dans les installations électriques est à une fréquence : de 50 Hz en Europe et, de 60 Hz aux États-Unis.

    Analogie hydraulique

    Pour comprendre certaines propriétés du courant électrique, il est intéressant de le comparer à de l'eau s'écoulant dans un circuit de tuyaux. Le générateur peut alors être vu comme une pompe chargée de mettre sous pression le liquide dans les tuyaux. La différence de potentiel, ou tension, ressemble alors à la différence de pression entre deux points d'un circuit d'eau. Elle est notée « U », et est exprimée en volts (V).
    L'intensité du courant électrique peut être assimilée au débit d'eau dans le tuyau. Elle rend compte du nombre de charges qui passent à chaque seconde dans un point du circuit ; elle est souvent notée « I », et mesurée en ampères (A). La résistance d'un circuit électrique serait alors l'analogue du diamètre des tuyaux. Plus les tuyaux sont petits, plus il faut de pression pour obtenir un même débit ; de façon analogue, plus la résistance d'un circuit est élevée, plus il faut une différence de potentiel élevée pour avoir une même intensité. La résistance électrique rend compte de la faculté d'un matériau de ralentir plus ou moins le passage du courant. Elle est notée « R » et, elle est exprimée en ohms (Ω).
    Il est possible de pousser cette analogie beaucoup plus loin3 mais elle a ses limites et certaines propriétés du courant électrique s'écartent sensiblement de ce modèle basé sur un fluide, des tuyaux, et des pompes.

    Électricité statique

    Électricité statique

    Dans la nature, les électrons sont des porteurs de charges négatives et les protons des porteurs de charges positives. Les atomes qui composent la matière ordinaire comprennent des électrons qui se déplacent autour d'un noyau composé de protons et de neutrons, ces derniers étant électriquement neutres. Lorsque le nombre d'électrons est égal au nombre de protons, l'ensemble est électriquement neutre. Il est question d'électricité statique lorsqu'il n'y a pas de circulation des charges électriques. Expérimentalement cela est généralement obtenu en utilisant des matériaux dans lesquels les charges sont « piégées », des matériaux isolants comme le plastique, le verre, le papier… qui résistent à la circulation des charges2.
    Quand on frotte certains matériaux entre eux, les électrons superficiels des atomes de l'un sont arrachés et récupérés par les atomes de l'autre. Par exemple :
    une tige de verre frottée sur un tissu de soie se charge positivement, car les atomes du verre perdent des électrons au bénéfice de la soie
    un ballon de baudruche frotté sur des cheveux secs se charge négativement, car il capte des électrons des cheveux secs.
    une règle en plastique frottée sur le tissu d'un vêtement se charge négativement, elle peut alors attirer des petits morceaux de papier. la règle modifie, par influence électrostatique, la répartition des charges dans le papier : les charges négatives de la règle repoussent les charges négatives à l'autre extrémité du morceau de papier et attirent les charges positives des atomes du papier.
    Dans l'industrie, l’utilisation de sources de 241Am, émetteur alpha, sous forme de rubans placés en fin de machines de production (de papiers, plastiques, textiles synthétiques) à quelques millimètres du matériau permet en rendant l’air avoisinant conducteur, de supprimer l’accumulation d’électricité statique.