|
Introduction | Définitions | L'Histoire par les faits | L'Histoire en dates | Quelques conclusions | Configuration générale de l'ordinateur | La machine de Babbage | Bibliographie | Les sites à visiter | Remerciements Introduction C'est en 1962 que Philippe Dreyfus employa le mot informatique pour définir le traitement automatique de l'information. En fait ce mot peut correspondre à deux groupes de disciplines distinctes: l'ensemble des techniques mises en oeuvre pour l'emploi de l'ordinateur ( electronic data processing ) ; une science nouvelle, qui ne nécessite pas obligatoirement l'utilisation des ordinateurs, ces derniers n'en sont qu'un outil majeur ( computer science ). D'un point de vue plus général, il n'est plus à démontrer que l'informatique envahit progressivement, sous beaucoup de formes, notre vie quotidienne, tant est puissant son développement. L'informatique aujourd'hui, c'est à la fois les calculettes de poche et les ordinateurs portables, les consoles et jeux vidéo, mais aussi l'aventure spatiale, les robots industriels, les applications médicales telles que le scanner, les cartes à puce et bien d'autres applications. L'informatique à travers l'ordinateur modifie, et modifiera plus encore, l'organisation du travail et les rapports entre les individus. Quelques définitions...
Le mot "informatique" : il est composé des deux mots information et électronique. L'Académie française en a donné la définition suivante en 1967 : " Science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information, considérée comme le support de connaissances dans les domaines scientifique, économique et social. ".
L'aventure informatiqueDans cette première partie, je traiterai les découvertes sur le système des connaissances ( théories, concepts nouveaux.... ), les découvertes sur le traitement et la communication de l'information ( machines diverses, inventions.... ). L'histoire par les faits
De l'an -10000 au XIIIième siècle.
Les fondations de l'informatique : la saisie, le codage, le calcul, l'écriture, la logique, le zéro. C'est durant la période de 10000 à 3000 avant J.C. que naquit le traitement rationnel de l'information. Mais le troc se basait plus sur les jetons et les boules. Ceux-ci étaient une sorte de monnaie et donc un premier traitement de l'information. En 3000 avant J.C. on utilisa en Chine le binaire à travers le principe du Ying et du Yang pour fabriquer des hexagrammes. Ils ne seront déchiffrés que quelques millénaires plus tard. En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de normes dans le traitement de l'information grâce à sa loi du talion " pour telle donnée émise par un objet, telle mise en forme de ces données sera faite ".C'est le principe de l'objectivité de l'information. Cette loi est plus connue sous la forme " oeil pour oeil, dent pour dent ". Hammourabi mit aussi en place la notion d'algorithme, qui est une notion de procédure détaillée de calcul. Les horloges égyptiennes, qui furent les premiers systèmes de traitement de l'information, apparurent en 1550 avant J.C. sous la forme de clepsydres. Cependant au Moyen-Orient, les Arabes fabriquèrent les premiers abaques et bouliers en 500 avant J.C., et en 751 après J.C. ils ramenèrent de Chine le principe de fabrication du papier qui sera un élément fondamental du développement de la civilisation occidentale. Le grand philosophe grec Aristote définit la logique en -330 avant J.C. Son oeuvre sera un axe principal dans la mise en place de la civilisation occidentale, sur le plan mathématique et philosophique. Vers 820 après J.C., un mathématicien arabe apporta de nouvelles connaissances sur les algorithmes ( élimination et réduction ). Retour vers le "petit sommaire" | Retour à la case départ Du XVième siècle à la fin du XIXième.
Les découvertes : le binaire, l'électricité, les logarithmes, les boucles de programmes, le téléphone, l'imprimerie et la machine à calcul. La plus grande invention de la fin du XVième siècle est l'imprimerie découverte par Gutenberg en Allemagne en 1454, ce procédé sera un véritable catalyseur pour le développement de la civilisation occidentale. De 1614 à 1679, plusieurs découvertes se succèdent. Tout d'abord les logarithmes traités par l'Ecossais Neper, ainsi la multiplication et la division se ramènent à deux opérations simples qui sont l'addition et la soustraction. Puis le philosophe Anglais Bacon invente un code, le code bilitière qui permet de coder les lettres de l'alphabet à partir de combinaisons de caractères non utilisés. Cette invention introduit le code binaire qui fut découvert par le philosophe Allemand Leibnitz. Il réalise plusieurs travaux dont un sur les hexagrammes chinois et présente un rapport à l'Académie française en 1702. Ce nouveau concept se propagera ainsi dans toute l'Europe. Le XVIIième siècle fut le temps des machines à calculer : en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du Français Pascal fut la première à réellement fonctionner, beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 ( division et multiplication ) en suivant le modèle de Pascal. Les cartes perforées furent utilisées en 1728 par le Français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servèrent dans des machines à tisser. En 1820, l'arithmomètre du Français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'Anglais Babbage ne fut qu'un échec. Pourtant elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité de calcul. Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844. La mathématicienne Anglaise Lovelace, qui est considérée comme la première programmeuse de l'histoire informatique, instaura en 1840 l'itération d'un programme ( la boucle ). Collaboratrice de Babbage, elle appela " algorithme " le processus logique permettant l'exécution d'un programme. En 1867, deux Américains mettaient au point la machine à écrire et neuf ans après un autre Américain Bell déposa le brevet du téléphone, trois ans plus tard 25000 postes fonctionnaient aux Etats-Unis. Toujours sur le sol américain, l'inventeur aux 2000 brevets, Edison, inventa le phonographe en 1877. En 1878, un anglais décrivit l'état radiant d'un gaz, base du phénomène de l'effet cathodique. C'est une grande ouverture vers les écrans cathodiques. Retour vers le "petit sommaire" | Retour à la case départ De 1884 à 1946.Les découvertes : l'effet photoélectrique, la diode, les principes de l'automatisme, le " BUG " d'un programme, la télévision, le binaire, l'Enigma, le Mark I et plusieures théories sur l'information et le calcul. Pour faire face aux problèmes de transfert de données concernant la démographie, l'Américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recencer la population. Hollerith créa alors la "Tabulating Machine Company" qui donnera naissance au grand groupe IBM "International Business Machine". Entre 1887 et 1907, les découvertes furent surtout dans le domaine physique électrique. L'effet photoélectrique, qui est produit en illuminant un circuit par des ultraviolets, est un phénomène majeur dans la progression vers les écrans de visualisation. C'est l'Allemand Hertz qui découvrit cet effet. La diode, qui permet de filtrer le courant en fonction des alternances, a été invent&eacutée; par l'Anglais Fleming. A partir de cette invention, l'Américain Lee De Forest construisit la triode, qui amplifie l'intensité du courant. C'est un pas conséquent vers la radiophonie. En 1910, deux logiciens Anglais, Whitehead et Russel, définirent la logique symbolique, support indispensable de l'informatique et de l'intelligence artificielle. En 1914, une définition des besoins et moyens utiles au fonctionnement des automates fut conduite par l'Espagnol Torres y Quevedo. En 1919 émergea le premier circuit bistable ( flip-flop ) composé de deux triodes. C'est un circuit de base de l'utilisation de l'algèbre booléenne. Il fut réalisé par deux Anglais Eccles et Jordan. Notre chère télévision n'apparût qu'en 1925, elle étonna les membres de l'Institut Royal de Londres lors d'une démonstration. Bien plus tard en 1935, la firme allemande AEG mit au point le magnétophone. Son principe de fonctionnement sera adapté aux ordinateurs. C'est le mathématicien Turing qui instaura en premier les grands concepts du fonctionnement algorithmique des futurs ordinateurs. En 1937, il publia un rapport sur une machine conceptuelle capable d'exécuter des opérations en vue de résoudre un problème. Durant cette année 1938 nacquit le " BIT " ( BInary digiT ). L'américain Shannon étudia l'algèbre booléenne et les circuits électriques. Il se rendit vite compte qu'il existait un rapport entre les deux sujet étudiés et publia une thèse sur ce parallèle. Cela aura un effet de catalyseur sur les télécommunications. En 1943, la collaboration de la firme IBM avec un professeur d'Harvard engendra la conception et la réalisation d'un gigantesque calculateur électromagnétique, le MARK I. Ce calculateur était l'assemblage de 800 kms de câblages, de 750 000 pièces, de 3000 relais, etc..., il pouvait effectuer des calculs en trois dixième de seconde. Retour vers le "petit sommaire" | Retour à la case départ De 1946 à 1968.Le triomphe du binaire, la constitution physique de l'ordinateur, le transistor, la cybernétique, l'intelligence artificielle, l'accès au traitement, les fondements structurels de la télécommunication mondiale. L'ENIAC ( Electronic Numerical Integrator Computer )marqua à tout jamais l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30 tonnes, mesure 24 mètres de long, est haute de 5.4 mètres, utilise 18000 tubes à vide. Elle réussit à traiter à son premier essai un million de cartes perforées, ce qui réjouit ses inventeurs Américains Eckert et Mauchly. Une des découvertes les plus importantes de l'histoire humaine est le transistor. Inventé en 1947 par trois Américains de la compagnie Bell, il sera l'élément de base des microprocesseurs. Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique actuelle. De 1949 à 1952. Confronté á l'énorme complexité des codes binaires qui sont utilisés pour la programmation, l'Américain Mauchly conçoit un code court, ce sera le premier langage évolué. Avec son collaborateur Eckert, il invente des bandes plastiques effaçables et réécrivables à volonté. En 1954 sortit la première grande série d'ordinateurs : l'IBM 650, de taille moyenne et à un prix accessible, il sera vendu à 1500 unités. En 1956, après trois années de recherche, IBM commercialise le premier disque dur magnétique. Cela apporte une révolution dans le stockage des données à la fois au plan des volumes, et des possibilités d'accès indexées. Retour vers le "petit sommaire" | Retour à la case départ De 1968 à 1991.Cette période est très riche en découvertes, c'est pourquoi je ne ferai qu'une analyse générale. 1968-1977 constitue la période la plus faste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre boulversement,aux conséquences considérables, l'arrivée du micro-ordinateur banalisé ( l'Apple II ) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement. Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur ( l'INTEL 4004 ). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considéré auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique. Il y a lieu de retenir plus particulièrement sur cette période les inventions suivantes :
Le géant IBM domine la marché de sa puissance écrasante. Néanmois, ce géant peut désormais pressentir que son avenir s'assombrit. Il ne peut pas contenir des puissances informatiques comme la CRAY, et il ne se préoccupe pas des petits fabricants qui bricolent dans des garages on ne sait trop quoi. Commençant avec le premier micro-ordinateur, l'Apple II, la période 1977-1990 présente une double face : d'un côté c'est une récolte prodigieuses de découvertes qui déclenche un fascinant dialogue homme-machine ; de l'autre côté c'est l'interrogation sur l'avenir face à cette convivialité d'un nouveau type qui attaque toutes les conditions de fonctionnement de la société. Le nombre impressionnant de découvertes implique un développement incontrôlé qui ne s'effectuera pas sans dommages. La fraude informatique va se développer et les virus vont se propager. Retour vers le "petit sommaire" | Retour à la case départ L'histoire par les datesDans cette deuxième partie, j'ai réuni toutes les découvertes du monde de l'informatique. Cela peut ressembler è un grand bazard mais peut s'avérer utile pour chercher rapidement un information courte et précise sur l'histoire informatique. Voici mes trois grandes parties : Les découvertes principales pour le systèmes de connaissances.
Revenir aux trois parties | Retour à la case départ
Les découvertes principales pour le systèmes de traitement.
Revenir aux trois parties | Retour à la case départ Les découvertes principales pour le systèmes de communication.
Revenir aux trois parties | Retour à la case départ ConclusionsL'informatique n'est pas née d'hier, les premiers grands concepts datent de plus de 10000 ans. Cependant cette science ne s'est développée que depuis un demi siècle et le nombre de découvertes est phénomènal sur ces dernières dix années : il y a environ une découverte par jour! La spécificité interdisciplinaire de l'informatique fait de son étude historique une source inépuisable d'enrichissements. Pour l'épistémologue informatique, Mathématiques, Physique, Economie, Guerre, Sociologie et tant d'autres constituent autant de domaines qu'il est nécessaire d'explorer. Il doit s'intéresser tout aussi bien : au PDG d'une multinationale "hi-tech" qu'au casseur ( hacker ) isolé d'un réseau ; A l'heure de la société de l'information, cette tâche, difficile mais passionnante est indispensable pour la compréhension du nouvel ordre mondial de la communication qui s'instaure. La guerre a été le facteur clef de développement de l'informatique avec trois épisodes essentielles : la deuxième guerre mondiale, la guerre froide et la guerre des étoiles. ( Ce n'est pas une blague! ) Au niveau des puissances informatiques dans le monde, les Etats-Unis sont largement dominants. En effet 95 % des inventions répertoriées depuis 1946 ont été faites sur le sol américain. Le Japon contrebalance sa très grande faiblesse au plan des brevets d'inventions par sa capacité extraordinaire à produire des brevets d'applications. C'est pour l'instant le seul grand compétiteur des USA. Le futur de l'informatique sera celui de la convivialité complète auditive, visuelle et tactile. Configuration d'un ordinateurLa configuration d'un ordinateur correspond à l'organisation adoptée pour mettre ensemble et faire fonctionner les divers éléments matériels de l'ordinateur. Les configurations possibles sont fonction de l'importance et de la finalité du système mis en oeuvre. Une des plus simples et des plus habituelles configurations est celle que l'on trouve dans un bureau de travail, telle qu'illustrée ci-dessous. Voici la définition de chaque élément représenté sur le schéma : Le disque dur : il sert à enregistrer des quantités importantes d'informations facilement accessibles par l'ordinateur ; La disquette : elle sert à sauvegarder des informations mais elle dispose que d'une capacité de stockage limitée ; L'écran : il permet de visualiser les informations communiquées par un ordinateur ; Le clavier : c'est un ensemble de touches qui permet d'introduire des informations à traiter dans un ordinateur ; La souris : c'est un dispsitif qui permet une interaction plus aisée que le clavier pour tout ce qui concerne le positionnement du curseur sur l'écran ; L'imprimante : c'est l'unité périphérique chargée d'imprimer sur papier des informations choisies ; Le digitaliseur : ( scanner ) il permet de digitaliser des documents, c'est à dire de transformer une image en une forme numérique ; La sortie standardisée : c'est une connexion qui permet de brancher un appareil auxiliaire ( imprimante, fax, etc... ) ; Le fax : il sert à envoyer une image numérique des documents par l'intermédiaire des lignes téléphoniques ; Le modem : Outil de communication avec d'autres ordinateurs éloignés en utilisant les lignes téléphoniques. La machine à différences de Babbage.
Cette partie est destinée aux étudiants spécialisés dans la mécanique. Le cas Babbage nous démontre une fois de plus que la conception d'un mécanisme est souvent limitée.
Charles Babbage est l'un des grands ancêtres de l'informatique. Ses plans de grands calculateurs mécaniques comptent parmi les performances intellectuelles les plus brillantes du XIXième siècle. Pourtant Babbage ne réssit jamais à construire les calculateurs qu'il avait imaginés. Les historiens affirment que les plans de Babbage imposaient des tours de force mécaniques inaccessibles à la technique victorienne, mais aucun document l'époque confire cette hypothèse. Les échecs de Babbage ont souvent été associés au mauvais caract&egrav; de ce génie créatif. Homme fier et droit, Babbage était célèbre pour ses critiques vigoureuses des institutions scientifiques. A la suite de ses échecs, Babbage se sentait victime d'une injustice ; il acquit alors une réputation d'homme susceptible et excentrique. Cependant une équipe de travail a relevé un tout autre aspect de ce génie : Babbage ´tait un inventeur méticuleux dont les inventions étaient réalisables.
BibliographieTous les livres suivants m'ont été fort utiles dans la réalisation de cette page HTML. Je vous conseille d'y jeter un coup d'oeil, voire de les acquérir si l'histoire de l'informatique vous passionne. "AINSI NAQUIT L'INFORMATIQUE" par R.Moreau ED. Dunod Informatique Les sites web à visiter.Un résumé l'histoire informatique. Quelques dates en anglais/français. Une chronologie de -3000 à 1984. (ou ici) Un site très complet sur l'histoire informatique. (ou ici) Remerciements.Je dis un grand merci à toutes les personnes qui m'ont soutenu pour ce rapport. J'espère avoir retenu votre attention quelque temps sur cette page. A la prochaine !!!
|
Envoyez un courrier électronique à sallevinci@collegestjocaen.compour toute question ou remarque concernant ce site Web. |