PC de 3ème et 4ème génération. Ordinateurs personnels modernes

Histoire du développement informatique

La naissance de l'ordinateur

L'histoire du développement informatique est étroitement liée aux tentatives visant à faciliter et à automatiser de grands volumes de calculs. Même les opérations arithmétiques simples avec de grands nombres sont difficiles à comprendre. cerveau humain. L'homme, à tout moment de son existence, a eu besoin d'outils pour compter. Dans les temps primitifs, un tel outil dont disposait une personne était son propre main. Le comptage par « doigts » était également utilisé par l'homme à des niveaux plus élevés de développement de la civilisation : dans la Grèce antique et dans la Rome antique.

Puis l'homme a commencé à utiliser les appareils de comptage les plus primitifs :

Au début, c'étaient des bâtons de bois avec des encoches, des cordes avec des nœuds. La première mention de cela remonte à 1350. J.-C., le parchemin qui existait déjà à cette époque était très cher, et il n'existait pas encore de papier.

Le besoin urgent d’un outil d’enregistrement et de comptage plus avancé a conduit à l’émergence de abaque (Cet instrument est similaire au boulier russe). D'après les preuves qui nous sont parvenues : les Égyptiens l'utilisaient déjà au Ve siècle. AVANT JC.

Au XVIIe siècle. Les logarithmes ont été inventés, puis la règle à calcul a été créée. Les règles à calcul ont été utilisées par plusieurs générations d’ingénieurs et d’autres professionnels jusqu’à l’avènement des calculatrices de poche. Les ingénieurs du programme Apollo ont envoyé un homme sur la Lune en effectuant tous les calculs sur des règles à calcul, dont beaucoup nécessitaient une précision de 3 à 4 chiffres.

DANS 1623 Wilhelm Schickard a inventé la première calculatrice mécanique capable d'effectuer quatre opérations arithmétiques.

- En 1642 Blaise Pascal conçu un mécanisme d'addition de huit bits.

Deux siècles plus tard en 1820 par le Français Charles de Colmar a créé une machine à additionner capable de multiplication et de division. Ils pouvaient mémoriser des nombres, effectuer des opérations arithmétiques de base et étaient propulsés par une main humaine.

Vers 1820, Charles Xavier Thomas créa la première calculatrice mécanique produite en série, l'arithmomètre Thomas, capable d'additionner, de soustraire, de multiplier et de diviser. Il s'appuie principalement sur les travaux de Leibniz. Des calculatrices mécaniques qui comptent Nombres décimaux, ont été utilisés jusque dans les années 1970.

- Gottfried Wilhelm Leibnizégalement décrit système binaire Les chiffres, l'ingrédient central de tous les ordinateurs modernes. Cependant, jusque dans les années 1940, de nombreux développements ultérieurs (notamment les machines de Charles Babbage et même l'ENIAC de 1945) étaient basés sur un système décimal plus difficile à mettre en œuvre.

Un rôle particulier dans le développement la technologie informatique joué les œuvres d'un mathématicien anglais exceptionnel Charles Babbage. DANS début XIX V. en 1833 il a proposé l'idée de créer une machine aux différences, destinée à calculer les valeurs des polynômes sans intervention humaine dans le processus de calcul, c'est-à-dire la machine devait compter automatiquement . Et il a créé une telle machine. Mais Babbage rêvait de machine universelle, sur lequel des problèmes de calcul arbitraires pourraient être résolus. Babbage a consacré toute sa vie à développer une telle machine, qu'il a lui-même appelée "analytique". Il a dressé un schéma détaillé de la machine, réalisé un grand nombre de dessins de composants individuels, réalisé certaines de ses pièces en métal, développé un projet pour effectuer des calculs scientifiques et techniques, dans lequel il a prévu les principaux dispositifs. ordinateur moderne, ainsi que ses missions. Une telle machine devait être contrôlée par un logiciel. Pour saisir et sortir des données, Babbage a proposé d'utiliser des cartes perforées - des feuilles de papier épais avec des informations imprimées à l'aide de trous. Les idées de Babbage étaient bien en avance sur leur temps ; elles ont commencé à prendre réellement vie à la fin du XIXe siècle. Ada Lovelace, fille de Lord Byron, a traduit et ajouté des commentaires au travail du scientifique "Esquisse du moteur analytique". Son nom est souvent associé à celui de Babbage. Elle est également considérée comme la première programmeuse informatique, bien que cette affirmation et l'importance de ses contributions soient contestées par beaucoup.

- en 1896 Herman Hollerith a fondé la Computing Tabulated Recording Company, qui est devenue la base de la future International Business Machines Corporation (IBM), une entreprise qui a apporté une contribution considérable au développement du monde. équipement informatique.

Les progrès scientifiques et technologiques ont permis la construction des premiers ordinateurs dans les années 1940. En février 1944, dans l'une des entreprises (IBM), en collaboration avec des scientifiques de l'Université Harvard, la machine Mark 1 fut créée sur ordre de l'US Navy. C'était un monstre pesant environ 35 tonnes. Le Mark 1 utilisait des éléments mécaniques pour représenter des nombres et des éléments électromécaniques pour contrôler le fonctionnement de la machine.

Enfin, en 1946, le premier ordinateur électronique (ENIAC) est créé aux USA(à l'Université de Pennsylvanie). Développeurs : John Mauchley et J. Presper Eckert.

Espace occupé - environ 300 m². m.

Le premier ordinateur numérique électronique de l'Union soviétique a été développé en 1950 sous la direction de l'académicien S. A. Lebedev de l'Académie des sciences de la RSS d'Ukraine. On l’appelait « MESM » (petite machine à additionner électronique).

Fondateurs l'informatique sont à juste titre considérés : Claude Shannon - créateur de théorie de l'information. En 1937, Claude Shannon montrait qu'il existait une correspondance bijective entre les concepts de logique booléenne et certains circuits électroniques, appelés "des portes logiques", qui sont actuellement largement utilisés dans ordinateurs numériques. Au MIT, ses principaux travaux ont démontré que les liens et commutateurs électroniques pouvaient représenter une expression de l'algèbre booléenne. Donc avec ton travail Une analyse symbolique des circuits de relais et de commutation il a créé la base d'une conception pratique de circuits numériques,

Alan Turing - mathématicien qui a développé la théorie des programmes et des algorithmes, John von Neumann - l'auteur de la conception des appareils informatiques, qui sous-tend encore la plupart des ordinateurs. Dans les mêmes années, un autre surgit nouvelle science La cybernétique est liée à l'informatique : la science du contrôle. Le fondateur de la cybernétique est un mathématicien américain Norbert Wiener . À une époque, le mot « cybernétique » était utilisé pour désigner l’ensemble de l’informatique en général, et notamment les domaines considérés comme les plus prometteurs dans les années 60 : l’intelligence artificielle et la robotique. C'est pourquoi les robots sont souvent appelés « cybers » dans les récits de science-fiction. Et dans les années 90, ce mot a refait surface pour désigner de nouveaux concepts liés aux réseaux informatiques mondiaux - des néologismes tels que « cyberespace », « cybershopping » et même « cybersexe » sont apparus.

L'ENIAC américain, souvent appelé le premier ordinateur électronique à usage général, a publiquement prouvé l'applicabilité de l'électronique à l'informatique à grande échelle. Ce fut un point clé dans le développement des ordinateurs, principalement en raison de l’augmentation considérable de la vitesse de calcul, mais aussi en raison des opportunités de miniaturisation qui ont émergé. La machine créée était 1000 fois plus rapide que toutes les autres machines de cette époque. Le développement d'ENIAC a duré de 1943 à 1945.

Retravaillant les idées d'Eckert et Mauchly et évaluant les limites d'ENIAC, John von Neumann a écrit un rapport largement cité décrivant une conception d'ordinateur (EDVAC) dans lequel le programme et les données étaient stockés dans une seule mémoire universelle. Les principes de conception de cette machine sont devenus connus sous le nom d'architecture von Neumann et ont servi de base au développement des premiers ordinateurs numériques universels et véritablement flexibles.

Première génération d'ordinateurs

Le développement des ordinateurs est divisé en plusieurs périodes. Les générations d'ordinateurs de chaque période diffèrent les unes des autres par leur base élémentaire et leurs logiciels.

Première génération (1945-1954) - ordinateurs à tubes sous vide . C'est l'ère de l'émergence de la technologie informatique. La plupart des machines de première génération étaient des dispositifs expérimentaux et étaient construites pour tester certains principes théoriques. Le poids et la taille de ces machines nécessitaient souvent des bâtiments séparés. La saisie des numéros dans les premières machines se faisait à l'aide de cartes perforées, et contrôle logiciel la séquence des opérations était réalisée, par exemple, dans ENIAC, comme dans les machines de calcul et d'analyse, à l'aide de fiches et de champs de composition.

Le logiciel des ordinateurs de 1ère génération était principalement constitué de routines standards.

Machines de cette génération : « ENIAC », « MESM », « BESM », « IBM-701 », « Strela », « Minsk-1 », « Minsk-12 », etc. Ces machines occupaient une grande surface et utilisaient un beaucoup d'électricité et se composait d'un très grand nombre de tubes à vide. Leurs performances ne dépassaient pas 2 à 3 000 opérations par seconde, la RAM ne dépassait pas 2 Ko.

Deuxième génération d'ordinateurs

La prochaine étape majeure dans l'histoire de la technologie informatique fut l'invention transistor. Les transistors sont devenus un substitut aux lampes fragiles et énergivores. Les ordinateurs à transistors sont généralement appelés la « deuxième génération » qui a dominé dans la seconde moitié des années 50 et au début des années 60 (1955-1965). Grâce aux transistors et aux circuits imprimés, c'était Une réduction significative de la taille (surface occupée de 20 m²) et de la quantité d'énergie consommée, ainsi qu'une augmentation de la fiabilité, ont été obtenues. L'utilisation de semi-conducteurs dans les circuits informatiques électroniques a conduit à une augmentation de la productivité jusqu'à 30 000 opérations par seconde et de la RAM jusqu'à 32 Ko. Cependant, les ordinateurs de deuxième génération étaient encore assez chers et n’étaient donc utilisés que par les universités, les gouvernements et les grandes entreprises.

La deuxième différence entre ces machines est que possibilité de programmer sur langages algorithmiques. Les premières langues ont été développées haut niveau- FORTRAN, ALGOL, COBOL.

Machines de cette génération : « RAZDAN-2 », « IVM-7090 », « Minsk-22, -32 », « BESM-3, -4 », « M-220, -222 », etc.

Sur la deuxième génération d'ordinateurs Pour la première fois, ce qu’on appelle aujourd’hui un système d’exploitation est apparu. En conséquence, la portée des applications informatiques s'est élargie. Désormais, les scientifiques ne sont plus les seuls à pouvoir compter sur l’accès à la technologie informatique ; les ordinateurs ont été utilisés dans la planification et la gestion, et certaines grandes entreprises ont même informatisé leur comptabilité.

4. Troisième génération d'ordinateurs. La croissance rapide de l'utilisation des ordinateurs a commencé avec ce qu'on appelle. "3ème génération" d'ordinateurs. Cela a commencé avec l’invention des circuits intégrés, inventés indépendamment par le lauréat du prix Nobel Jack Kilby et Robert Noyce. Cela a conduit plus tard à l'invention du microprocesseur par Tad Hoff (Intel).

Durant les années 1960 Il y avait un certain chevauchement des technologies des 2e et 3e générations.

Le développement au cours de ces années des circuits intégrés - dispositifs entiers et assemblages de dizaines et centaines de transistors réalisés sur un seul cristal semi-conducteur (ce qu'on appelle aujourd'hui microcircuits) a conduit à la création d'ordinateurs de 3ème génération. Apparaît en même temps mémoire semi-conductrice, qui est encore utilisé dans les ordinateurs personnels comme système d'exploitation. L'utilisation de circuits intégrés a considérablement augmenté les capacités des ordinateurs. Maintenant CPU J'ai eu l'opportunité de travailler et de gérer de nombreux périphériques en parallèle. Les ordinateurs pourraient traiter simultanément plusieurs programmes (le principe multiprogrammation). Grâce à la mise en œuvre du principe de multiprogrammation, il est devenu possible de travailler en mode temps partagé en mode interactif. Les utilisateurs distants de l'ordinateur ont eu la possibilité, indépendamment les uns des autres, d'interagir rapidement avec la machine.

Durant ces années, la production informatique acquiert une ampleur industrielle. IBM, devenu leader, a été le premier à mettre en œuvre une famille d'ordinateurs - une série d'ordinateurs entièrement compatibles entre eux, du plus petit, de la taille d'un petit placard (ils n'avaient jamais rien fait de plus petit à l'époque), aux modèles les plus puissants et les plus chers. La famille la plus courante à cette époque était la famille System/360 d'IBM.

Depuis les ordinateurs de 3ème génération, le développement des ordinateurs série est devenu traditionnel. Bien que les machines de la même série soient très différentes les unes des autres en termes de capacités et de performances, elles étaient compatibles sur le plan informationnel, logiciel et matériel. Par exemple, les pays du CAEM ont produit des ordinateurs d'une seule série (« ES EVM ») « ES-1022 », « ES-1030 », « ES-1033 », « ES-1046 », « ES-1061 », « ES -1066", etc. Les performances de ces machines atteignaient de 500 000 à 2 millions d'opérations par seconde, la quantité de RAM atteignait de 8 Mo à 192 Mo.

Les ordinateurs de cette génération comprennent également "IVM-370", "Electronics - 100/25", "Electronics - 79", "SM-3", "SM-4", etc. Le logiciel de la série d'ordinateurs a été considérablement étendu ( Système d'exploitation, langages de programmation de haut niveau, programmes d'application, etc.).

La mauvaise qualité des composants électroniques était le point faible des ordinateurs soviétiques de troisième génération. D'où le retard constant par rapport aux développements occidentaux en termes de vitesse, de poids et de dimensions, mais, comme le soulignent les développeurs de SM, pas en termes de Fonctionnalité. Afin de compenser ce retard, des processeurs spéciaux ont été développés, permettant de construire des systèmes hautes performances pour des tâches spécifiques.

Au début des années 60, les premiers mini-ordinateurs sont apparus : de petits ordinateurs de faible consommation abordables pour les petites entreprises ou les laboratoires. Les mini-ordinateurs représentaient le premier pas vers les ordinateurs personnels, dont les prototypes n'ont été commercialisés qu'au milieu des années 70. Pendant ce temps, le nombre d'éléments et de connexions entre eux qui s'intègrent dans un seul microcircuit ne cessait de croître et, dans les années 70, les circuits intégrés contenaient déjà des milliers de transistors. Cela a permis de combiner la plupart des composants informatiques en une seule petite pièce - et c'est ce qu'elle a fait. en 1971 société Intel , libérant premier microprocesseur qui était destiné aux calculatrices de bureau qui venaient d'apparaître. Cette invention était destinée à créer une véritable révolution au cours de la prochaine décennie. Après tout, le microprocesseur est le cœur et l'âme de l'ordinateur personnel moderne.

De plus, le tournant des années 60 et 70 est considéré comme une période fatidique. En 1969, il est né le premier réseau informatique mondial - l'embryon de ce que nous appelons aujourd'hui Internet. Et dans le même 1969, une salle d'opération apparaît simultanément Système Unix et le langage de programmation C, qui a eu un impact énorme sur le monde du logiciel et conserve toujours sa position de leader.

Quatrième génération d'ordinateurs

Malheureusement, à partir du milieu des années 1970, le schéma ordonné du changement générationnel a été perturbé. Il y a de moins en moins d’innovations fondamentales en informatique. Les progrès se poursuivent principalement dans la voie du développement de ce qui a déjà été inventé et inventé, principalement grâce à l'augmentation de la puissance et à la miniaturisation de la base des éléments et des ordinateurs eux-mêmes.

On croit généralement que période depuis 1975 appartient aux ordinateurs quatrième génération. Leur base élémentaire était grands circuits intégrés (LSI). Jusqu'à 100 000 éléments sont intégrés dans un cristal). La vitesse de ces machines était de plusieurs dizaines de millions d'opérations par seconde et la RAM atteignait des centaines de Mo. Les microprocesseurs (1971 par Intel), les micro-ordinateurs et les ordinateurs personnels font leur apparition. Il est devenu possible d'utiliser en commun la puissance de différentes machines (en connectant des machines en un seul nœud informatique et en travaillant en temps partagé).

Cependant, il existe un autre avis : beaucoup pensent que les réalisations de la période 1975-1985. pas assez grand pour être considéré comme une génération égale. Les partisans de ce point de vue considèrent cette décennie comme appartenant à la « troisième et demie » génération d’ordinateurs. Mais, seulement depuis 1985, quand sont-ils apparus circuits intégrés à très grande échelle (VLSI). Un cristal d'un tel circuit peut accueillir jusqu'à 10 millions d'éléments.), il faut compter les années de vie de la quatrième génération elle-même, qui est encore vivante aujourd'hui.

1ère direction - la création de supercalculateurs - complexes de machines multiprocesseurs. La vitesse de ces machines atteint plusieurs milliards d'opérations par seconde. Ils sont capables de traiter d’énormes quantités d’informations. Cela inclut les complexes ILLIAS-4, CRAY, CYBER, Elbrus-1, Elbrus-2, etc. Les complexes informatiques multiprocesseurs (MCC) Elbrus-2 ont été activement utilisés en Union soviétique dans des domaines nécessitant un grand volume de calculs, avant tout dans l'industrie de la défense. Ils ont également été utilisés dans le centre de contrôle vols spatiaux, dans les centres de recherche nucléaire. Enfin, ce sont les complexes Elbrus-2 qui sont utilisés depuis 1991 dans le système de défense antimissile et dans d’autres installations militaires.

2ème direction - développement ultérieur sur la base des micro-ordinateurs et ordinateurs personnels (PC) LSI et VLSI. Les premiers représentants de ces machines sont Apple, IBM - PC (XT, AT, PS/2), Iskra, Elektronika, Mazovia, Agat, ES-1840, ES-1841, etc.

À partir de cette génération, les ordinateurs ont commencé à être appelés ordinateurs.

Grâce à l’émergence et au développement des ordinateurs personnels (PC), la technologie informatique devient véritablement répandue et accessible au public. Une situation paradoxale se présente : malgré le fait que les ordinateurs personnels et les mini-ordinateurs sont encore à la traîne à tous égards par rapport aux grosses machines, la part du lion des innovations réside dans l'interface utilisateur graphique, nouvelle périphériques, réseaux mondiaux- doivent précisément leur apparition et leur développement à cette technique « frivole ». Bien entendu, les grands ordinateurs et supercalculateurs ne se sont pas éteints et continuent de se développer. Mais aujourd’hui, ils ne dominent plus le domaine informatique comme ils le faisaient autrefois.

6. Ordinateur de cinquième génération- c'est l'ordinateur du futur. Le programme de développement de la cinquième génération d'ordinateurs a été adopté au Japon en 1982. On supposait que d'ici 1991, des ordinateurs fondamentalement nouveaux seraient créés, axés sur la résolution des problèmes d'intelligence artificielle. Avec l'aide du langage Prolog et des innovations en matière de conception informatique, il était prévu de se rapprocher de la résolution de l'un des principaux problèmes de cette branche de l'informatique - le problème du stockage et du traitement des connaissances. Bref, pour les ordinateurs de cinquième génération, il n’y aurait pas besoin d’écrire des programmes, mais il suffirait d’expliquer dans un langage « presque naturel » ce qu’on attend d’eux.

On suppose que leur base élémentaire ne sera pas des VLSI, mais des dispositifs créés sur cette base avec des éléments d'intelligence artificielle. Pour augmenter la mémoire et la vitesse, les progrès de l'optoélectronique et des bioprocesseurs seront utilisés.

Pour les ordinateurs de cinquième génération, des tâches complètement différentes sont posées par rapport au développement de tous les ordinateurs précédents. Si les développeurs d'ordinateurs de la 1ère à la 4ème génération étaient confrontés à des tâches telles que l'augmentation de la productivité dans le domaine des calculs numériques, l'obtention d'une grande capacité de mémoire, alors la tâche principale des développeurs d'ordinateurs de 5ème génération est : créer une intelligence artificielle du machine (la capacité de tirer des conclusions logiques à partir des faits présentés), développement de « l'intellectualisation » des ordinateurs, éliminant la barrière entre l'homme et l'ordinateur.

Malheureusement, le projet informatique japonais de cinquième génération a répété le sort tragique des premières recherches dans le domaine de l'intelligence artificielle. Plus de 50 milliards de yens d'investissement ont été gaspillés, le projet a été abandonné et les appareils développés ne se sont pas révélés plus performants que les systèmes produits en série de l'époque. Cependant, les recherches menées au cours du projet et l'expérience accumulée dans les méthodes de représentation des connaissances et d'inférence logique parallèle ont grandement contribué aux progrès dans le domaine des systèmes d'intelligence artificielle en général.

Déjà maintenant, les ordinateurs sont capables de percevoir des informations à partir de textes manuscrits ou imprimés, de formulaires, de voix humaine, de reconnaître l'utilisateur par la voix et de traduire d'une langue à une autre. Cela permet à tous les utilisateurs de communiquer avec les ordinateurs, même ceux qui n'ont pas de connaissances particulières dans ce domaine.

De nombreuses avancées réalisées par l’intelligence artificielle sont utilisées dans l’industrie et le monde des affaires. Systèmes experts et les réseaux de neurones utilisé efficacement pour les tâches de classification (filtrage SPAM, catégorisation de texte, etc.). Les algorithmes génétiques servent consciencieusement l'humain (utilisé, par exemple, pour optimiser les portefeuilles dans les activités d'investissement), la robotique (industrie, production, vie quotidienne - partout où elle a posé sa main cybernétique), ainsi que les systèmes multi-agents. D'autres domaines de l'intelligence artificielle sont également en plein essor, comme la représentation distribuée des connaissances et la résolution de problèmes sur Internet : grâce à eux, nous pouvons nous attendre dans les prochaines années à une révolution dans de nombreux domaines de l'activité humaine.

Moderne Ordinateur personnel

Les ordinateurs personnels (PC) modernes, conformément à la classification acceptée, devraient être classés comme ordinateurs de quatrième génération. Mais compte tenu du développement rapide logiciel, de nombreux auteurs de publications les classent dans la 5ème génération.

Les ordinateurs personnels sont apparus au tournant des années 70. La société américaine Intel a développé le premier microprocesseur (MP) 4004 4 bits pour une calculatrice. Fin 1973, Intel a développé un MP 8080 monopuce 8 bits, conçu pour des applications polyvalentes. Il a été immédiatement remarqué par l'industrie informatique et est rapidement devenu le « standard ». Le prix était abordable même pour les amateurs. Certaines entreprises ont commencé à produire le MP 8080 sous licence, d'autres ont proposé ses versions améliorées. Ainsi, un groupe d'ingénieurs Intel, ayant créé leur propre société Zilog, a lancé en 1976 le Z80 MP, qui conserve architecture de base 8080. Motorola a développé son propre MP M6800 8 bits, qui a ensuite été largement utilisé.

Steve Wozniak (le futur « père » des ordinateurs Apple) a assemblé son premier ordinateur en 1972 à partir de pièces rejetées par un fabricant local de semi-conducteurs à Berkeley, en Californie. Début 1976, Steve Wozniak, alors qu'il travaillait chez Hewlett-Packard, proposa son ordinateur Apple à la direction d'HP, mais ne trouva aucun soutien. Un autre projet remporté chez Hewlett-Packard était le HP-85, basé sur l'idée de combiner un ordinateur et une calculatrice. Puis, le 1er avril 1976, deux Steve – Wozniak et Jobs – mi-plaisantant mi-sérieux, enregistrèrent la société Apple Computer Company. Et déjà en juillet, ils proposaient aux magasins l'ordinateur Apple-1 au prix de 666,66 dollars.

Apple-1 a commencé à être demandé. Son succès était dû à la simplicité du système d'exploitation. Auparavant, les PC étaient contrôlés via " ligne de commande", et l'utilisateur, pour assigner des tâches à l'ordinateur, devait être au moins un petit programmeur. La création d'une « souris » et d'une interface graphiquement conviviale a rendu le PC accessible aux « nuls » et a largement déterminé le succès d'Apple-1.

IBM a tourné son attention vers les ordinateurs personnels alors que le marché était « sorti de son berceau ». En 1980, plus d’un million d’ordinateurs avaient déjà été vendus rien qu’aux États-Unis, et les spécialistes du marketing prévoyaient une croissance explosive de la demande. Des dizaines d'entreprises ont présenté leurs modèles. Les ordinateurs, malgré toutes leurs similitudes externes, étaient très divers et incompatibles les uns avec les autres. Chaque constructeur a développé sa propre architecture PC. On pensait que l'ordinateur PDP-11, développé par DEC, possédait l'architecture la plus prometteuse. Les solutions techniques de cette entreprise ont constitué la base du premier ordinateurs domestiques"Électronique".

Cependant, fin 1980, le conseil d’administration d’IBM décide de créer « une machine dont les gens ont besoin ». Intel a été choisi comme partenaire stratégique en tant que fournisseur de processeurs. L'équipe de développement d'IBM PC a également conclu une alliance avec Bill Gates, décrocheur de l'Université Harvard. Les PC qui existaient à cette époque étaient équipés du populaire système d'exploitation CP/M créé par Digital Research, ou du système UCSD de Softech. Cependant, ces systèmes d'exploitation coûtent respectivement 450 $ et 550 $, et Gates n'a facturé que 40 $ pour son PC-DOS. IBM a choisi d'être bon marché.

Le 12 août 1981, IBM a présenté son PC, qui n'était pas conçu pire que les produits des leaders du marché de l'époque - Commodore PET, Atari, Radio Shack et Apple.

IBM a pris une mesure inattendue. Décidant d’ériger son architecture en standard, elle ouvre la documentation technique. Désormais, chaque fabricant de PC pouvait acheter une licence auprès d'IBM et assembler des ordinateurs similaires, et les fabricants de microprocesseurs pouvaient fabriquer des éléments pour ceux-ci. IBM espérait « se mettre sous couverture » en détruisant les standards de ses concurrents. Et c’est ce qui s’est passé. Seul Apple a su conserver sa propre architecture : il a trouvé sa place dans les domaines conception graphique et l'éducation. Tous les autres fabricants ont soit fait faillite, soit adopté le standard IBM.

Au printemps 1983, IBM a lancé le modèle PC XT avec disque dur et a également annoncé la création d'une nouvelle génération de microprocesseurs - 80286. Nouvel ordinateur IBM PC AT (Advanced Technologies), construit sur le MP 80286, a rapidement conquis le monde entier et est resté le plus populaire pendant plusieurs années.

Les premiers microprocesseurs 32 bits sont apparus sur le marché mondial en 1983-1984, mais leur utilisation généralisée dans les PC hautes performances a commencé en 1985 après la sortie des microprocesseurs 80386 et M68020 respectivement par Intel et Motorola. Ces LSI ont ouvert une nouvelle génération de microprocesseurs qui implémentent le traitement des données au niveau des ordinateurs « grand public ».

En 1989, la production d'un MP ​​80486 plus puissant avec une vitesse de plus de 50 millions d'opérations par seconde a commencé. En mars 1993, Intel a poursuivi la série 80x86 avec la sortie du microprocesseur P5 « Pentium » avec une architecture 64 bits. Puis il y a eu les Pentium 2, les Pentium 3. Aujourd'hui, le MP le plus populaire est le Pentium 4 avec la technologie HT, qui permet de traiter les informations via 2 flux parallèles. Ceux. c'est comme avoir deux processeurs.

Vitesses d'horloge Les PC modernes dépassent les 3 GHz, la RAM atteint 4 Go. Capacité de stockage par disques durs augmenté à 500 Go. Technologies modernes vous permettent d'écouter et d'enregistrer des fichiers audio de haute qualité sur votre PC. Application Lecteurs de DVD permet de visionner des films modernes.

Les PC portables (nootbooks), les Pocket PC (PDA) et les PC mobiles (smartphones) combinant les fonctions d'un PC et d'un téléphone sont aujourd'hui largement utilisés.

Un PC moderne comprend :

Unité système

carte mère, ports, puce BIOS, minuterie

CPU

carte vidéo (peut être intégrée dans carte mère)

carte audio (peut être intégrée à la carte mère)

Carte réseau(peut être intégré à la carte mère)

Lecteurs de disque dur et de disquettes

Lecteurs de CD et DVD-ROM

Unité de puissance

Clavier

Manipulateur de souris

Haut-parleurs

Imprimante, traceur

Modem ou adaptateur ADSL

Eh bien, bien sûr, un ordinateur ne peut être imaginé sans logiciel. Tout comme l'architecture IBM PC est devenue la norme pour le matériel PC, les produits de MicroSoft (Bill Gates) sont devenus la norme pour les logiciels. Ses salles d’opération sont particulièrement appréciées Systèmes Windows et applications bureautiques MS-Office.

  • Nous pouvons affirmer avec certitude que les réactifs de dégivrage multicomposants modernes, si les normes d'utilisation sont respectées, sont sans danger pour les animaux domestiques.
  • Sciences de gestion ou approche quantitative. Approches modernes de gestion : systémique, procédurale, situationnelle.
  • Générations informatiques

    I génération (1945-1955

    sur les tubes à vide

    ‣‣‣ performance 10-20 mille opérations par seconde

    ‣‣‣ chaque machine a son propre langage

    ‣‣‣ aucun système d'exploitation

    ‣‣‣ entrée et sortie : bandes perforées, cartes perforées, bandes magnétiques

    Détails

    · Base d'éléments : tubes à vide électroniques, résistances, condensateurs. Raccordement des éléments : installation suspendue avec fils.

    · Dimensions : L'ordinateur se présente sous la forme d'immenses armoires et occupe une salle informatique spéciale.

    · Vitesse : 10 à 20 000 opérations/s.

    · L'opération est trop compliquée en raison de pannes fréquentes des tubes à vide. Il existe un risque de surchauffe de l'ordinateur.

    · Programmation : un processus à forte intensité de main d'œuvre dans les codes machine. Dans ce cas, il est extrêmement important de connaître toutes les commandes de la machine, leur représentation binaire et l'architecture de l'ordinateur. Cela était principalement réalisé par des mathématiciens-programmeurs qui travaillaient directement sur son panneau de commande. La maintenance informatique exigeait un grand professionnalisme de la part du personnel.

    IIe génération (1955-1965)

    ‣‣‣ sur les transistors semi-conducteurs (1948, J. Bardin, W. Brattain Et W.Shockley)

    ‣‣‣ 10 à 200 000 opérations par seconde

    ‣‣‣ premiers systèmes d'exploitation

    ‣‣‣ premiers langages de programmation : Fortran (1957), ALGOL (1959)

    ‣‣‣ supports de stockage d'informations : tambours magnétiques, disques magnétiques

    Détails

    · Base d'éléments : éléments semi-conducteurs. Connexion des éléments : circuits imprimés et fixation murale.

    · Dimensions : Les ordinateurs sont fabriqués sous la forme de racks similaires, légèrement plus hauts que la taille humaine. Pour les accueillir, il faut une salle des machines spécialement équipée, dans laquelle sont posés sous le sol des câbles reliant de nombreux appareils autonomes.

    · Productivité : de centaines de milliers à 1 million d'opérations/s.

    · Fonctionnement : simplifié. Des centres informatiques dotés d'un effectif important de personnel de service sont apparus, où plusieurs ordinateurs étaient généralement installés. C'est ainsi qu'est né le concept de traitement centralisé de l'information sur ordinateur. Si plusieurs éléments tombaient en panne, la carte entière était remplacée, et non chaque élément séparément, comme dans les ordinateurs de la génération précédente.

    · Programmation : a considérablement changé depuis qu'elle a commencé à être réalisée principalement dans des langages algorithmiques. Les programmeurs ne travaillaient plus dans la salle, mais remettaient leurs programmes sur cartes perforées ou bandes magnétiques à des opérateurs spécialement formés. Les problèmes ont été résolus en mode batch (multiprogramme), c'est-à-dire que tous les programmes ont été introduits dans l'ordinateur les uns après les autres et traités au fur et à mesure de la sortie des appareils correspondants. Les résultats de la solution ont été imprimés sur du papier spécial perforé le long des bords.

    · Des changements se sont produits tant dans la structure de l'ordinateur que dans le principe de son organisation. Le principe de contrôle rigide a été remplacé par la microprogrammation. Pour mettre en œuvre le principe de programmabilité, il est extrêmement important que l'ordinateur dispose mémoire permanente, dans les cellules desquelles se trouvent toujours des codes correspondant à diverses combinaisons de signaux de commande. Chacune de ces combinaisons vous permet d'effectuer une opération de base, c'est-à-dire de connecter certains circuits électriques.

    · Le principe du temps partagé a été introduit, ce qui assure la combinaison du temps de travail différents appareils, par exemple, un dispositif d'entrée/sortie de bande magnétique fonctionne simultanément avec le processeur.

    IIIème génération (1965-1980)

    ‣‣‣ sur les circuits intégrés (1958, J. Kilby)

    ‣‣‣ performances jusqu'à 1 million d'opérations par seconde

    ‣‣‣ RAM– des centaines de Ko

    ‣‣‣ systèmes d'exploitation – gestion de la mémoire, des appareils, du temps processeur

    ‣‣‣ langages de programmation BASIQUE (1965), Pascal(1970, N. Wirth), Si (1972, D. Ritchie)

    ‣‣‣ compatibilité du programme

    Détails

    · Base d'éléments : circuits intégrés insérés dans des supports spéciaux sur un circuit imprimé.

    · Dimensions : la conception externe de l'ordinateur ES est similaire à celle de l'ordinateur de deuxième génération. Une salle des machines est également nécessaire pour les accueillir. Et les petits ordinateurs sont essentiellement constitués de deux supports d’environ une taille humaine et demie et d’un écran. Οʜᴎ n'avait pas besoin, comme les ordinateurs ES, d'une salle spécialement équipée.

    · Performances : de centaines de milliers à des millions d'opérations par seconde.

    · Fonctionnement : légèrement modifié. Les pannes régulières sont réparées plus rapidement, mais en raison de la grande complexité de l'organisation du système, une équipe de spécialistes hautement qualifiés est nécessaire. Le programmeur système joue un rôle important.

    · Technologie de programmation et de résolution de problèmes : la même qu'à l'étape précédente, bien que la nature de l'interaction avec l'ordinateur ait quelque peu changé. Dans de nombreux centres informatiques, des salles d'affichage sont apparues, où chaque programmeur, à un moment donné, pouvait se connecter à l'ordinateur en mode temps partagé. Comme auparavant, le régime principal est resté le traitement par lots Tâches.

    · Des changements se sont produits dans la structure des ordinateurs. Parallèlement à la méthode de contrôle par microprogramme, les principes de modularité et de agrégation sont utilisés. Le principe de modularité se manifeste dans la construction d'un ordinateur basé sur un ensemble de modules - des unités électroniques structurellement et fonctionnellement complètes dans une conception standard. Par bus, il est courant de comprendre la méthode de communication entre les modules informatiques, c'est-à-dire que tous les périphériques d'entrée et de sortie sont connectés par les mêmes fils (bus). Il s'agit du prototype du bus système moderne.

    · La capacité de mémoire a augmenté. Le tambour magnétique est progressivement remplacé par des disques magnétiques réalisés sous forme de boîtiers autonomes. Des écrans et des traceurs sont apparus.

    IV génération (de 1980 à...)

    ‣‣‣ ordinateurs basés sur des circuits intégrés à grande et ultra-grande échelle ( BIS, VLSI)

    ‣‣‣ supercalculateurs

    ‣‣‣ personnel des ordinateurs

    ‣‣‣ apparence des utilisateurs- non-professionnels, il est extrêmement important d’avoir une interface « conviviale »

    ‣‣‣ plus 1 milliard. opérations par seconde

    ‣‣‣ RAM – jusqu'à plusieurs gigaoctet

    ‣‣‣ multiprocesseur systèmes

    ‣‣‣ ordinateur réseaux

    ‣‣‣ multimédia(graphiques, animations, son)

    Il convient de noter en particulier l'une des idées les plus significatives incarnées dans un ordinateur à ce stade : l'utilisation de plusieurs processeurs simultanément pour les calculs (multitraitement).

    Générations d'ordinateurs - concept et types. Classement et caractéristiques de la catégorie « Générations informatiques » 2014, 2015.

    Les photos de l'article sont tirées du projet Wikipédia

    La courte histoire de la technologie informatique est divisée en plusieurs périodes en fonction des éléments de base utilisés pour fabriquer un ordinateur. La division du temps en périodes est dans une certaine mesure arbitraire, car Alors que l’on produisait encore des ordinateurs de l’ancienne génération, la nouvelle génération commençait à prendre de l’ampleur.

    Les tendances générales du développement informatique peuvent être identifiées :

    1. Augmenter le nombre d'éléments par unité de surface.
    2. Réduction des effectifs.
    3. Vitesse de travail accrue.
    4. Coût réduit.
    5. Développement de logiciels, d'une part, et simplification, standardisation du matériel, d'autre part.

    Zéro génération. Ordinateurs mécaniques

    Les conditions préalables à l’apparition d’un ordinateur sont probablement formées depuis l’Antiquité, mais l’examen commence souvent par la machine à calculer de Blaise Pascal, qu’il a conçue en 1642. Cette machine ne pouvait effectuer que des opérations d’addition et de soustraction. Dans les années 70 du même siècle, Gottfried Wilhelm Leibniz a construit une machine capable d'effectuer non seulement des opérations d'addition et de soustraction, mais également de multiplication et de division.

    Au XIXe siècle, Charles Babbage a apporté une contribution majeure au développement futur de la technologie informatique. Son machine à différence, bien qu'elle ne puisse qu'ajouter et soustraire, les résultats des calculs étaient extrudés sur une plaque de cuivre (un analogue des moyens d'entrée-sortie d'informations). Décrit plus tard par Babbage moteur analytique devait effectuer les quatre opérations mathématiques de base. Le moteur analytique se composait de mémoire, d'un mécanisme informatique et de dispositifs d'entrée/sortie (tout comme un ordinateur... uniquement mécaniques), et surtout, il pouvait exécuter divers algorithmes (en fonction de la carte perforée qui se trouvait dans le périphérique d'entrée). Les programmes pour le moteur analytique ont été écrits par Ada Lovelace (la première programmeuse connue). En fait, la machine n'a pas été réalisée à cette époque en raison de problèmes techniques et difficultés financières. Le monde était à la traîne de la pensée de Babbage.

    Au XXe siècle, les machines à calculer automatiques ont été conçues par Konrad Zus, George Stibits et John Atanasov. La machine de ce dernier comprenait, pourrait-on dire, un prototype de RAM, et utilisait également l'arithmétique binaire. Les ordinateurs relais Mark I et Mark II de Howard Aiken avaient une architecture similaire à celle du moteur analytique de Babbage.

    Première génération. Ordinateurs à tube à vide (194x-1955)

    Performance : plusieurs dizaines de milliers d'opérations par seconde.

    Particularités :

    • Comme les lampes sont de taille importante et qu’il y en a des milliers, les machines étaient de taille énorme.
    • Comme il y a beaucoup de lampes et qu'elles ont tendance à griller, l'ordinateur était souvent inactif en raison de la recherche et du remplacement d'une lampe défectueuse.
    • Les lampes émettent une grande quantité de chaleur, c'est pourquoi les ordinateurs nécessitent des systèmes de refroidissement puissants et spéciaux.

    Exemples d'ordinateurs :

    Colosse- un développement secret du gouvernement britannique (Alan Turing a participé au développement). C'est la première au monde ordinateur électronique, bien qu'il n'ait pas eu d'impact sur le développement de la technologie informatique (en raison de son secret), mais a contribué à gagner la Seconde Guerre mondiale.

    Eniac. Créateurs : John Mauchley et J. Presper Eckert. Le poids de la machine est de 30 tonnes. Inconvénients : utilisation du système de nombres décimaux ; Beaucoup d'interrupteurs et de câbles.

    Edsak. Réalisation : la première machine avec un programme en mémoire.

    Tourbillon I. Des mots courts, un travail en temps réel.

    Ordinateur 701(et modèles ultérieurs) d'IBM. Le premier ordinateur à dominer le marché depuis 10 ans.

    Deuxième génération. Ordinateurs à transistors (1955-1965)

    Performances : des centaines de milliers d'opérations par seconde.

    Par rapport aux tubes à vide, l'utilisation de transistors a permis de réduire la taille des équipements informatiques, d'augmenter la fiabilité, d'augmenter la vitesse de fonctionnement (jusqu'à 1 million d'opérations par seconde) et d'éliminer quasiment les transferts de chaleur. Les méthodes de stockage de l'information se développent : la bande magnétique est largement utilisée, et plus tard les disques apparaissent. Durant cette période, le premier jeu informatique a été remarqué.

    Le premier ordinateur à transistors Émission est devenu un prototype pour les ordinateurs de succursale PDP Les sociétés DEC, qui peuvent être considérées comme les fondatrices de l'industrie informatique, car le phénomène de vente massive de machines est apparu. DEC lance le premier mini-ordinateur (de la taille d'une armoire). L'affichage a été détecté.

    IBM travaille également activement en produisant des versions à transistors de ses ordinateurs.

    Ordinateur 6600 CDC, développé par Seymour Cray, avait un avantage sur les autres ordinateurs de l'époque : sa vitesse, obtenue grâce à l'exécution parallèle de commandes.

    Troisième génération. Ordinateurs à circuits intégrés (1965-1980)

    Performances : millions d'opérations par seconde.

    Le circuit intégré est circuit électrique, gravé sur un cristal de silicium. Des milliers de transistors s'adaptent à un tel circuit. Par conséquent, cette génération d’ordinateurs a été contrainte de devenir encore plus petite, plus rapide et moins chère.

    Cette dernière propriété permettait aux ordinateurs de pénétrer divers domaines activité humaine. Pour cette raison, ils sont devenus plus spécialisés (c’est-à-dire qu’il y avait différents ordinateurs pour différentes tâches).

    Un problème est survenu concernant la compatibilité des modèles fabriqués (logiciels pour eux). Pour la première fois, IBM a accordé une grande attention à la compatibilité.

    La multiprogrammation a été mise en place (c'est-à-dire lorsqu'il y a plusieurs programmes exécutables en mémoire, ce qui a pour effet d'économiser les ressources du processeur).

    Poursuite du développement des mini-ordinateurs ( PDP-11).

    Quatrième génération. Ordinateurs sur circuits intégrés à grande (et ultra-grande) échelle (1980-...)

    Performances : des centaines de millions d'opérations par seconde.

    Il est devenu possible de placer non pas un seul circuit intégré sur une puce, mais des milliers. La vitesse des ordinateurs a considérablement augmenté. Les ordinateurs ont continué à devenir moins chers et même les particuliers les achetaient désormais, ce qui a marqué l’ère dite des ordinateurs personnels. Mais le plus souvent, il ne s’agissait pas d’un programmeur professionnel. Par conséquent, le développement de logiciels était nécessaire pour qu'un individu puisse utiliser l'ordinateur au gré de son imagination.

    À la fin des années 70 et au début des années 80, les ordinateurs étaient populaires Pomme, développé par Steve Jobs et Steve Wozniak. Plus tard, un ordinateur personnel basé sur un processeur Intel a été lancé en production de masse.

    Plus tard, des processeurs superscalaires, capables d'exécuter de nombreuses instructions simultanément, et des ordinateurs 64 bits sont apparus.

    Cinquième génération ?

    Cela inclut l'échec du projet japonais (bien décrit sur Wikipédia). D'autres sources font référence à la cinquième génération d'ordinateurs comme étant des ordinateurs dits invisibles (microcontrôleurs intégrés dans appareils ménagers, voitures, etc.) ou des ordinateurs de poche.

    Il existe également une opinion selon laquelle la cinquième génération devrait inclure des ordinateurs équipés de processeurs dual-core. De ce point de vue, la cinquième génération a débuté vers 2005.



    2024 wisemotors.ru. Comment ça fonctionne. Fer. Exploitation minière. Crypto-monnaie.