Poser une question

Des bibliothécaires vous répondent en 72h maximum.

je pose ma question

Chercher une réponse

recherche multi-critères

Comment ça marche

Quelles questions ?
Qui répond ?
Dans quel délai ? tout savoir

Accueil > Informatique

Informatique

par laurine-021, le 13/03/2019 à 09:48 - 608 visites

Bonjour,
Qu'est-ce que l'informatique ?
Je voudrais que vous m'aidiez à distinguer l'informatique de l’électronique et du numérique. La nuance est difficile à percevoir.

Cordialement,

Laurine

Réponse du Guichet du savoir

par gds_et, le 15/03/2019 à 15:46

Bonjour,

Commençons par les définitions que nous trouvons dans le Larousse :

Electronique

Partie de la physique et de la technique qui étudie et utilise les variations de grandeurs électriques (champs électromagnétiques, charges électriques, etc.) pour capter, transmettre et exploiter de l’information.
• Electronique de spin, dans laquelle on agit sur le spin des électrons pour contrôler leur déplacement (synonyme : spintronique). Elle trouve d’importantes applications dans les technologies de l’information et de la communication (TIC).


Informatique
(de information et automatique)

Science du traitement automatique et rationnel de l’information en tant que support des connaissances et des communications ; ensemble des applications de cette science, mettant en œuvre des matériels (ordinateurs) et des logiciels.

L’informatique fondamentale comprend la théorie de l’information, l’algorithmique, l’analyse numérique et les méthodes théoriques de représentation des connaissance et de modélisation des problèmes. Le traitement automatique de l’information nécessite de capter les documents par des organes d’entrée, de les transmettre, de les stocker, de les modifier dans une unité de traitement (processeur ou unité centrale d’ordinateur, appelée parfois unité logique) grâce à un logiciel et, enfin, de les restituer à l’utilisateur par des organes de sortie.


Numérique :
(du latin numerus, nombre)

Se dit de la représentation d’informations ou de grandeurs physiques au moyen de caractères tels que des chiffres, ou au moyen de signaux à valeurs discrètes ; se dit des systèmes, dispositifs ou procédés dont le fonctionnement fait appel à ce mode de représentation (par opposition à analogique).


Si tout cela est un peu sec et abstrait, d’autres sources fournissent des explications plus détaillées :

« L'électronique est une branche de la physique appliquée, traitant de la mise en forme et de la gestion de signaux électriques comme support pour le stockage, le traitement et la transmission d'informations plus ou moins complexes (commandes, son, image, etc.).

L’électronique est une science technique, ou science de l’ingénieur, constituant l'une des branches les plus importantes de la physique appliquée, qui étudie et conçoit les structures effectuant des traitements de signaux électriques, c'est-à-dire de courants ou de tensions électriques, porteurs d’informations.
Dans cette définition la notion de l’information est considérée dans le sens le plus large : elle désigne toute grandeur (physique, telle la température, le son ou la vitesse, ou abstraite, telle une image, un code…) qui peut évoluer en temps réel selon une loi inconnue à l’avance, ou plus souvent prévu à cet effet (calcul des équations booléennes).

Comme tous les automatismes, les systèmes électroniques sont souvent conçus en deux parties :
• l’une, opérative, gère les signaux de puissance porteurs d'énergie (courants forts) ;
• l’autre, informationnelle, gère les signaux porteurs d’information (courants faibles).

Dans les systèmes électroniques classiques traitant le monitoring des outils de performance bi-directionnelle d’information, celle-ci est codée par les tensions ou les courants électriques. Les applications électroniques peuvent être divisées selon deux groupes distinct : le traitement de l’information et la commande. La première englobe les domaines tel que l’informatique, les télécommunications, les mesures, tandis que la seconde s'occupe de la gestion de l'information (elle donne des ordres pour ainsi dire), par exemple les microprocesseurs, les PIC, ou encore les moteurs pas à pas.
Les applications de commande ont pour objet le contrôle du fonctionnement d’un système naturel ou technique. Un contrôle implique généralement la mesure d'un ou plusieurs paramètres contrôlés, sa comparaison avec le modèle ou la valeur souhaitée et, en cas d’erreur, la génération d’une consigne de correction (principe de contre réaction à la base de nombreux systèmes électroniques). Ainsi, un contrôle peut être vu comme une succession d’opérations de traitement du signal : ceci renvoie à la définition générale donnée plus haut. »
Source : Wikipedia

« Quelles sont les applications de l’électronique ?

Les applications couvrent de nombreux domaines, tels que l’informatique, les télécommunications, les mesures, les appareils électroniques peuvent en effet faire des calculs, émettre des sons, transmettre des images, mais aussi garder des informations en mémoire ou effectuer des contrôles. C’est donc à l’électronique que nous devons les ordinateurs, la radio, la télévision, la télécommande ou le radar.
Source : Qu’est-ce que l’électronique ? espace-sciences.org


« L'informatique est un domaine d'activité scientifique, technique et industriel concernant le traitement automatique de l'information par l'exécution de programmes informatiques par des machines : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.
Ces champs d'application peuvent être séparés en deux branches, l'une, de nature théorique, qui concerne la définition de concepts et modèles, et l'autre, de nature pratique, qui s'intéresse aux techniques concrètes de mise en œuvre. Certains domaines de l'informatique peuvent être très abstraits, comme la complexité algorithmique, et d'autres peuvent être plus proches d'un public profane. Ainsi, la théorie des langages demeure un domaine davantage accessible aux professionnels formés (description des ordinateurs et méthodes de programmation), tandis que les métiers liés aux interfaces homme-machine sont accessibles à un plus large public.

Le terme « informatique » résulte de l'association du terme « information » au suffixe « -ique » signifiant « qui est propre à ». Comme adjectif, il s'applique à l'ensemble des traitements liés à l'emploi des ordinateurs et systèmes numériques. Comme substantif, il désigne les activités liées à la conception et à la mise en œuvre de ces machines. Des questions de télécommunications comme le traitement du signal ou la théorie de l'information, aussi bien que des problèmes mathématiques comme la calculabilité s'y rattachent. Dans le vocabulaire universitaire américain, l'informatique (« computer science ») désigne surtout l'informatique théorique : un ensemble de sciences formelles qui ont pour objet d'étude la notion d'information et des procédés de traitement automatique de celle-ci, l'algorithmique.
Les applications de l'informatique depuis les années 1950 forment la base du secteur d'activité des technologies de l'information et de la communication. Ce secteur industriel et commercial est lié à la fois aux procédés (logiciel, architectures de systèmes) et au matériel (électronique, télécommunication). Le secteur fournit également de nombreux services liés à l'utilisation de ses produits : développement, maintenance, enseignement, assistance, surveillance et entretien. »
Source : Wikipedia
(pour approfondir sur l’informatique vous pouvez aussi consulter l’article d’axiomcafe.fr : Qu’est-ce que l’informatique ?)


« Le mot « numérique » est de plus en plus présent dans notre vocabulaire. Il est en train de devenir un mot passe-partout qui sert à définir un ensemble de pratiques qui caractérisent notre quotidien et dont nous avons peut-être encore du mal à saisir la spécificité. Mais qu’est-ce que le numérique précisément ? Que dit ce mot à propos de nos usages ? De nos vies ? Au fil des années, plusieurs expressions différentes ont été utilisées pour parler de l’ensemble des pratiques et des possibilités qui ont émergé grâce au développement des technologies. On a souvent parlé de « nouvelles technologies » – parfois en précisant : « nouvelles technologies de l’information et de la communication » – ou de « nouveaux médias », ou encore d’« environnements virtuels » ou plus simplement d’informatique ou d’électronique.

Chacune de ces expressions privilégie et met en valeur un aspect particulier de ces expériences et pratiques et l’on peut dire que plusieurs de ces formulations, après avoir eu leur moment de gloire, sont devenues plutôt désuètes. C’est le cas de « nouvelles technologies de l’information et de la communication » ou de « nouveaux médias » : l’adjectif « nouveau » commence à être abandonné, car ces technologies ne sont plus si nouvelles que cela. Par ailleurs, cette expression renvoie à une approche particulière : celle des sciences de la communication, justement, qui a tendance à analyser les pratiques numériques essentiellement comme des pratiques de communication et d’information. Or, s’il est vrai que nous communiquons et que nous nous informons aujourd’hui surtout avec l’ordinateur, il serait réducteur de dire que le numérique n’est que cela.

L’adjectif « virtuel » aussi a fait son temps. Si l’on regarde les graphiques de Ngram Viewer, on peut facilement le cons¬tater : le mot commence à avoir beaucoup de succès dans la deuxième moitié des années 1980, arrive à son apogée en 2003, et son emploi commence ensuite à diminuer. En anglais, cette tendance est encore plus évidente. Le mot met l’accent sur le fait que les technologies informatiques donnent la possibilité de développer un véritable monde parallèle. Mais ce monde est apparemment – et dans l’acception la plus banale du mot « virtuel » – opposé au monde réel. Nos usages d’aujourd’hui nous obligent de constater qu’il n’y a rien d’irréel dans l’environnement numérique. C’est probablement pourquoi l’on délaisse le mot « virtuel ».

Pourquoi alors parler de numérique ? Quelle est la signification exacte de ce mot ?

Numérique et analogique

Le mot « numérique » est initialement utilisé pour caractériser le mode d’enregistrement de sons, d’images ou de vidéos en opposition à l’analogique. L’exemple des sons peut nous aider à mieux comprendre le sens de cette notion – en particulier en relation avec l’apparition du compact disc (CD) dans les années 1980 et avec la progressive substitution du vinyle. Le cas du CD est également significatif à cause de l’impact qu’il a eu dans l’imaginaire collectif par rapport au discours sur la qualité des enregistrements numériques et analogiques.

L’enregistrement analogique se base sur une reproduction du son de façon analogue à la réalité, à savoir en reproduisant sur un support — par exemple un vinyle — la continuité de l’onde sonore. Concrètement, la pointe du dispositif d’enregistrement est ébranlée par le son et reproduit un mouvement analogue à celui du son. La courbe qui en ressort est continue et représente fidèlement le mouvement du son dans les moindres détails et dans la continuité du temps. Entre chaque point de cette courbe, il y a des points à l’infini – comme dans le cas d’une ligne droite continue : la courbe est donc « dense », dans le sens mathématique du mot, c’est-à-dire qu’elle ne comporte aucun saut.

L’enregistrement analogique garantit une fidélité parfaite au son d’origine, justement grâce à cette analogie et à cette continuité : en principe, l’enregistrement analogique devrait donc donner lieu à la meilleure qualité possible. Mais l’analogique pose un problème fondamental : celui de la reproduction. Chaque reproduction – à cause de la complexité de l’enregistrement, de sa densité, de sa continuité – comporte une perte de qualité. Le moindre grain de poussière sur un vinyle implique une déformation du son. Et, bien évidemment, chaque copie de l’enregistrement donne lieu à une perte de qualité : on copie analogiquement, ce qui implique qu’à chaque copie on est un peu plus loin du son original. La copie de la copie est de qualité inférieure et ainsi de suite. On pouvait le constater lorsque l’on copiait sur des cassettes des chansons depuis un vinyle. À force de copier, l’enregistrement devenait inécoutable. En somme, la complexité de l’analogique détermine une difficulté dans sa transmission et dans sa reproduction.

Le principe du numérique est de discrétiser le continu du son – ou de l’image ou de n’importe quelle autre information. Cette discrétisation est ce que l’on appelle « échantillonnage ». Concrètement, on prend le continu de l’onde sonore et on choisit des échantillons, à savoir on ne considère pas l’ensemble du son, mais seulement les changements qui se produisent à des intervalles déterminés. Plus court est l’intervalle choisi, plus précis sera l’échantillonnage, et plus haute sera la qualité du son numérisé. Le son que l’on obtient de cette manière est essentiellement de qualité inférieure à l’analogique, car il ne rend pas compte de la continuité du son d’origine, mais seulement d’un nombre restreint – bien qu’élevé – d’échantillons. Mais le processus de discrétisation permet une simplification de l’enregistrement qui est réduit à une série de chiffres entiers et plus précisément de 0 et de 1. Cette simplification permet une meilleure gestion des reproductions. Pratiquement, il n’y a aucune différence entre différentes reproductions d’un enre¬gistrement numérique : une copie n’a rien de différent par rapport au premier enregistrement, car aucune information ne sera perdue. En fait, on peut affirmer qu’il n’y a pas de copies, car il n’y a absolument aucune différence entre le premier enregistrement et sa reproduction. Dans chaque processus de copie analogique, même s’il est réalisé de façon mécanique, il y a une perte de données, donc chaque copie est un objet séparé. On pourra toujours identifier et distinguer la première de la deuxième ou de la troisième copie et ainsi de suite. Dans le cas d’un enregistrement numérique, cette distinction n’est pas possible. Une cassette est une copie d’un vinyle ; un CD n’est pas une copie du CD original, car il est absolument indistinguable de celui-ci.

Cela implique que, même si, lors de l’échantillonnage, il y a une perte de qualité obligatoire par rapport à l’original – car on transforme sa continuité en une série discrète d’échantillons –, lors de la reproduction, la qualité du numérique restera la même, alors que celle de l’analogique diminuera. On comprend ainsi le discours commercial mis en avant comme argument de vente du CD : on parlait de sa meilleure qualité. Or il ne s’agissait pas d’une meilleure qualité – car le vinyle, étant analogique, était plus fidèle au son d’origine –, mais d’une meilleure gestion de la reproduction, qui permettait la transmission du son sans perte d’informations.

Le même discours vaut pour n’importe quel type d’information numérisée, qu’il s’agisse d’images, de vidéos ou de textes. »
Source : Pour une définition du « numérique », Marcello Vitali-Rosati


Bonne journée.
  • 1 vote

Rester connecté

guichetdusavoir.org sur Twitter

s'abonner aux flux RSS

Les astuces du Guichet du Savoir

Comment trouver des infos sur


un artiste et ses œuvres
des films et des réalisateurs
une pièce de théâtre
des articles de presse
le logement
des livres jeunesse
des revues scientifiques
le droit d'auteur
mentions légales - contact