Tecnologia

43 líderes empresariais que trouxeram tecnologia para a era moderna

Fonte: Thinkstock

Fonte: Thinkstock

Há boas chances de você usar seu smartphone e computador todos os dias, mas não pense em como essas máquinas extraordinárias chegaram até você. Não estamos falando sobre a cadeia de suprimentos da Apple ou o processo de design por trás da última versão do Android. Isso tem a ver com muito mais do que como os criadores e agitadores do Vale do Silício determinam como será o próximo iPhone ou quão mais rápido será o próximo laptop. A questão é: como o rápido ritmo de mudança e inovação acelerou até sua atual velocidade vertiginosa, que agora assistimos com menos admiração e admiração do que com uma curiosidade ociosa e uma pergunta perpétua em nossos lábios: o que vem a seguir?

A maioria de nós não sabe muito sobre a história da computação, cujos anais catalogam anos de grandes mentes que conceberam a transição do cálculo para a computação, estabeleceram os blocos de construção lógicos da computação, identificaram a velocidade e a memória como a chave dos computadores , construiu o hardware para tornar os computadores possíveis, programou computadores, escreveu linguagens de programação, construiu sistemas operacionais, foi pioneira na Internet e criou inovação após inovação após inovação, cada inventor apoiando-se nos ombros daqueles que o antecederam.



Continue lendo para aprender sobre os grandes inovadores que trouxeram a tecnologia para a era moderna da computação. Estas são as figuras gigantescas que tornaram possível a nossa era da Internet, smartphones, laptops e aplicativos móveis, estabelecendo sua base tijolo a tijolo com habilidade, determinação e otimismo sobre o que o futuro reservaria.

Charles Babbage

Fonte: Arquivo Hulton / Imagens Getty

1. Charles Babbage (1791-1871)

De acordo com ' História Moderna da Computação ”Na Enciclopédia de Filosofia de Stanford, Charles Babbage foi um Lucasian Professor of Mathematics na Universidade de Cambridge, um cargo anteriormente ocupado por Isaac Newton, de 1828 a 1839. Ele propôs um mecanismo de diferença, que era uma máquina de computação digital para a produção automática de matemática tabelas, como tabelas de logaritmo, tabelas de marés e tabelas astronômicas. Consistia inteiramente em componentes mecânicos, incluindo engrenagens de latão, hastes, catracas e pinhões. Os números eram representados no sistema decimal pelas posições das rodas de metal com 10 dentes.

Ao completar a Máquina Diferencial em 1832, Babbage também propôs uma Máquina Analítica, muito mais ambiciosa do que a Máquina Diferencial, que teria sido um computador digital mecânico de uso geral. A máquina analítica teria um armazenamento de memória e uma unidade de processamento central e seria capaz de selecionar entre as ações alternativas decorrentes do resultado das ações anteriores. A máquina analítica teria sido controlada por um programa de instruções contidas em cartões perfurados conectados com fitas. Babbage trabalhou em estreita colaboração com Ada Lovelace, que previu a possibilidade de usar a máquina analítica para cálculos não numéricos.

Augusta Ada, condessa Lovelace

Fonte: Arquivo Hulton / Imagens Getty

2. Ada Lovelace (1815-1852)

Augusta Ada Byron, a única filha legítima de Annabella Milbanke e do poeta George Gordon, ou Lord Byron, foi educada em um currículo rígido de ciências, lógica e matemática por insistência de sua mãe, que se separou de Byron apenas um mês depois de Ada nasceu. De acordo com o Computer History Museum, Lovelace conheceu Babbage em uma festa em 1833 , quando ela tinha 17 anos. Ele demonstrou a parte funcional da Máquina Diferencial para ela.

Em 1843, ela publicou a tradução de um artigo sobre a Máquina Analítica por um engenheiro italiano, Luigi Menabrea, ao qual ela anexou extensas notas de sua autoria. Suas notas incluíam a primeira descrição publicada de uma sequência de operações para resolver problemas matemáticos. Lovelace é muitas vezes referida como a primeira programadora e, vista de uma perspectiva moderna, suas declarações são consideradas visionárias. Ela especulou que a Máquina de Babbage 'pode ​​agir sobre outras coisas além do número ... a Máquina pode compor peças de música elaboradas e científicas de qualquer grau de complexidade ou extensão.'

Sua versão final do artigo tinha mais de três vezes o comprimento do original e contém o que poderia ser considerado vários dos primeiros programas de computador. Embora Babbage e seus assistentes tenham esboçado programas para a Máquina Analítica teórica antes, os de Lovelace são os mais elaborados e completos, e os primeiros a serem publicados. O conceito de uma máquina que poderia manipular símbolos de acordo com regras e a ideia de que os números poderiam representar outras entidades além das quantidades marcaram uma transição fundamental do cálculo para a computação. Lovelace foi a primeira a articular o conceito, e alguns acreditam que ela viu ainda mais longe do que Babbage no que diz respeito ao potencial da ideia. Suas anotações se tornaram um dos documentos essenciais que inspiraram o trabalho de Alan Turing nos primeiros computadores modernos na década de 1940.

George Boole

Fonte: Keystone / Hulton Archive / Getty Images

3. George Boole (1815-1864)

Como relata Stanford, George Boole era um matemático que lógica revolucionada aplicando métodos do campo emergente da álgebra simbólica à lógica. Enquanto a lógica tradicional ou aristotélica se baseava em catalogar os silogismos válidos de várias formas simples, o método de Boole produziu algoritmos gerais em uma linguagem algébrica, que se aplicava a uma variedade infinita de argumentos. Ele criou um sistema de descrição de relações lógicas com símbolos matemáticos, que agora é chamado de lógica booleana e usado como base para todos os processos de computador modernos.

A álgebra booleana fornece a base para a análise da validade das proposições lógicas porque captura o caráter binário das afirmações que podem ser verdadeiras ou falsas. Na década de 1930, os pesquisadores descobriram que a lógica de dois valores de Boole se prestava à descrição de circuitos elétricos de comutação. Eles demonstraram que os números binários - zero e um - poderiam ser usados ​​para analisar os circuitos e, assim, projetar computadores eletrônicos, e os computadores e circuitos hoje são projetados para implementar aritmética binária.

Análise de números

Fonte: General Photographic Agency / Getty Images

4. Vannevar Bush (1890-1974)

Como relata Ibiblio, Vannevar Bush nunca esteve diretamente envolvido com o desenvolvimento da Internet , e morreu antes da criação da World Wide Web. Mas ele é frequentemente considerado o padrinho da era conectada graças à sua proposta de uma máquina chamada “memex” e sua conceituação de uma ideia que agora conhecemos como “hipertexto”. Em seu ensaio de 1945, 'As We May Think', Bush descreveu uma máquina teórica projetada para aprimorar a memória humana, permitindo ao usuário armazenar e recuperar documentos vinculados por associações. Essa ligação associativa era muito semelhante ao que hoje é conhecido como hipertexto.

O memex foi concebido como um dispositivo de armazenamento e recuperação e usaria microfilme. A máquina apresentaria uma mesa com telas de visualização, um teclado, botões e alavancas de seleção e armazenamento de microfilmes. As informações armazenadas no microfilme podem ser recuperadas rapidamente e projetadas em uma tela. Bush imaginou que, à medida que a mente forma memórias por meio de associações, o memex permitiria aos usuários fazer ligações entre documentos. Ele chamou esses links de trilhas associativas. Inovadores posteriores, incluindo Ted Nelson, que cunhou o termo “hipertexto” na década de 1960, reconheceram suas dívidas com Bush, que é considerado um dos primeiros visionários, e morreu anos antes de a Internet se tornar popular.

Benedict Cumberbatch como Alan Turing em The Imitation Game

Fonte: Theimitationgamemovie.com

5. Alan Turing (1912-1954)

Em 1936, na Universidade de Cambridge, Turing inventou o princípio do computador moderno. Como relata Stanford, Turing descreveu uma máquina de computação digital abstrata que consistia em uma memória ilimitada e um scanner que se move para frente e para trás através da memória, símbolo por símbolo, lendo o que encontra e escrevendo outros símbolos. O comportamento do scanner é ditado por um programa de instruções armazenadas na memória na forma de símbolos. A máquina de computação de Turing de 1936 é agora conhecida como a máquina de Turing universal.

Desde o início da Segunda Guerra Mundial, Turing foi um criptanalista líder na Escola de Código do Governo e Cypher em Bletchley Park, onde se familiarizou com o trabalho de Thomas Flowers envolvendo comutação eletrônica de alta velocidade em grande escala. Durante os anos de guerra, Turing refletiu bastante sobre a questão da inteligência da máquina e sobre a possibilidade de as máquinas computacionais aprenderem com a experiência e resolver problemas, buscando no espaço de soluções possíveis, guiado pelos princípios das regras de ouro.

Em 1945, Turing se juntou ao National Physical Laboratory para projetar e desenvolver um computador digital com programa armazenado eletrônico para trabalho científico chamado Automatic Computing Engine em homenagem ao mecanismo de diferença e mecanismo analítico de Babbage. Turing percebeu que a velocidade e a memória eram essenciais para a computação, e seu projeto exigia uma memória de alta velocidade com aproximadamente a mesma capacidade dos primeiros computadores Macintosh, que Stanford observa ser enorme para os padrões de sua época.

Thomas Tommy Flowers

Fonte: Cryptomuseum.com

6. Thomas Flowers (1905-1998)

Com algumas exceções, as primeiras máquinas de computação digital eram eletromecânicas e eram construídas com pequenos interruptores mecânicos acionados eletricamente, chamados de 'relés'. Eles operavam lentamente, enquanto os componentes básicos de um computador eletrônico - originalmente tubos de vácuo - não tinham partes móveis, exceto elétrons, e operavam com extrema rapidez. O desenvolvimento de técnicas digitais de alta velocidade usando tubos de vácuo tornou o computador moderno possível, e o primeiro uso extensivo de tubos de vácuo para processamento digital de dados foi pelo engenheiro Thomas Flowers. Sua visão era que o equipamento eletrônico substituiria os sistemas existentes construídos a partir de relés, e observou que no início da guerra com a Alemanha em 1939, ele pode ter sido a única pessoa na Grã-Bretanha a perceber que tubos de vácuo poderiam ser usados ​​em grande escala para alta computação digital de alta velocidade.

O primeiro computador digital eletrônico totalmente funcional foi o Colossus, usado pelos criptoanalistas de Bletchley Park em fevereiro de 1944. Desde o início da guerra, o Código do Governo e a Escola Cypher decifravam com sucesso as comunicações de rádio alemãs codificadas com o sistema Enigma, e em 1942 aproximadamente 39.000 mensagens interceptadas estavam sendo decodificadas a cada mês. Durante a segunda metade de 1941, as mensagens codificadas por um meio diferente começaram a ser interceptadas, e a nova máquina de criptografia foi quebrada em abril de 1942.

A necessidade de decifrar a inteligência vital o mais rápido possível levou Max Newman a propor, em novembro de 1942, que partes importantes do processo de descriptografia fossem automatizadas com dispositivos de contagem eletrônicos de alta velocidade. A primeira máquina construída de acordo com suas especificações era baseada em relé com circuitos eletrônicos, mas não era confiável e era lenta. Flowers recomendou que uma máquina totalmente eletrônica fosse construída, e construiu o primeiro computador digital eletrônico programável em grande escala do mundo. Colosso I foi entregue a Bletchley Park em janeiro de 1943. Embora faltasse duas características importantes dos computadores modernos (não tinha programas armazenados internamente e não era uma máquina de uso geral), para aqueles familiarizados com a máquina de Turing universal e o programa armazenado associado conceito, o equipamento de Flowers foi a prova da viabilidade de usar um grande número de tubos de vácuo para implementar um computador de programa armazenado de uso geral de alta velocidade.

Tom Kilburn (à esquerda) e F.C. Williams com o Manchester Baby

Fonte: Cacm.acm.org

7. F.C. Williams (1911-1977) e 8. Tom Kilburn (1921-2001)

F. C. Williams e Tom Kilburn construíram o mais antigo computador digital eletrônico funcional de uso geral com programa armazenado no Laboratório de Máquinas de Computação de Max Newman na Universidade de Manchester. O Manchester “Baby”, como ficou conhecido, realizou seu primeiro cálculo em junho de 1948. O programa, armazenado na face de um tubo de raios catódicos, tinha apenas 17 instruções e uma versão muito ampliada da máquina, com um sistema de programação projetado por Turing. Ele se tornou o primeiro computador disponível comercialmente do mundo, o Ferranti Mark I. O primeiro a ser concluído foi instalado na Universidade de Manchester em fevereiro de 1951, e um total de cerca de 10 foram vendidos na Grã-Bretanha, Canadá, Holanda e Itália.

Embora a máquina de Manchester seja freqüentemente lembrada como obra exclusiva de Williams e Kilburn, contribuições lógico-matemáticas fundamentais foram feitas por Turing e Newman. Em 1935, Newman apresentou a Turing o conceito que o levou diretamente à máquina de Turing. A contribuição inicial de Turing para os desenvolvimentos em Manchester pode ter sido por meio de palestras sobre design de computador dadas em Londres durante o período de dezembro de 1946 a fevereiro de 1947. Stanford observa que o crédito pelo computador de Manchester pertence não apenas a Williams e Kilburn, mas também a Newman. A influência do jornal de Turing de 1936 e de Flowers's Colossus também foi crucial.

ENIAC

Fonte: Keystone / Getty Images

9. J. Presper Eckert (1919-1995), 10. John Mauchly (1907-1980), 11. John von Neumann (1903-1957) e programadores ENIAC 12. Kay McNulty (1921-2006), 13. Betty Snyder (1917-2001), 14. Marlyn Wescoff (1992-2008), 15. Ruth Lichterman (1924-1986), 16. Betty Jean Jennings (1924-2011) e 17. Fran Bilas (1922-2012)

O primeiro computador digital eletrônico de uso geral totalmente funcional construído nos Estados Unidos foi o ENIAC, construído na Moore School of Electrical Engineering da University of Pennsylvania para o Departamento de Material Bélico do Exército por J. Presper Eckert e John Mauchly. Concluído em 1945, o ENIAC era em alguns aspectos semelhante ao Colossus anterior, embora fosse maior e mais flexível, mas longe de ser uma máquina de uso geral. Foi projetado principalmente para o cálculo de tabelas usadas na mira de artilharia. Não era um computador com programa armazenado, e configurá-lo para uma nova tarefa envolvia reconfigurar a máquina com plugues e interruptores.

Em 1944, John von Neumann juntou-se ao grupo ENIAC. Na Escola Moore, ele enfatizou a importância do conceito de programa armazenado, incluindo a possibilidade de permitir que a máquina modifique seu próprio programa de maneiras úteis durante a execução. Como von Neumann foi uma figura de prestígio que tornou amplamente conhecido o conceito de computador digital com programa armazenado de alta velocidade, tornou-se comum - embora historicamente impreciso - referir-se aos computadores digitais com programa armazenado eletrônico como 'máquinas de von Neumann'.

Como relata a Fortune, quando o ENIAC estava sendo construído em Penn em 1945, pensava-se que seria realizar um conjunto específico de cálculos de novo e de novo. Mas o advento do fim da guerra significou que a máquina era necessária para muitos outros tipos de cálculos envolvendo ondas sônicas, padrões climáticos e o poder explosivo das bombas atômicas, o que exigiria que ela fosse reprogramada com frequência.

Em 1946, seis mulheres programaram o ENIAC, aprendendo a programar sem linguagens ou ferramentas de programação, porque até agora não existia nenhuma. Eles tinham apenas diagramas lógicos para ajudá-los. Eles demonstraram que a programação de um computador se tornaria tão importante quanto o design e a construção de seu hardware. Eles aprenderam tanto a aplicação quanto a máquina, e puderam diagnosticar problemas tão bem quanto (senão melhor do que) os engenheiros, que originalmente pensaram que a montagem do hardware era a parte mais importante do projeto e, portanto, um trabalho de homem.

Grace Murray Hopper

Fonte: Agnesscott.edu

18. Grace Murray Hopper (1906-1992)

Como relata a PBS, Hopper ingressou no WAVES, ou Mulheres Aceitas para Serviço de Emergência Voluntário, uma parte da Reserva Naval dos EUA, em 1943, e um ano depois foi o Tenente Hopper. Ela foi designada para a equipe do Bureau of Ships Computation em Harvard, que foi projetar uma máquina para fazer cálculos rápidos e difíceis para tarefas como colocar campos minados. Howard Aiken dirigiu o trabalho, que envolveu essencialmente a criação do primeiro computador digital programável, chamado Mark I. Depois de remover uma mariposa da máquina ao procurar a causa de uma falha no computador, Hopper cunhou os termos 'bug' e 'depuração' como eles estão relacionados aos erros do computador e como corrigi-los.

Em 1949, ela se juntou a uma startup lançada por Eckert e Mauchly da fama ENIAC. Eles criaram um produto chamado Univac, um computador que gravava informações em fita magnética de alta velocidade. Representou uma inovação significativa em relação aos cartões perfurados padrão da época. Sperry Rand adquiriu a empresa e Hopper permaneceu, fazendo avanços importantes na redução de erros ao criar um programa que traduziria o código dos programadores em linguagem de máquina.

Ela e sua equipe desenvolveram o Flow-matic, a primeira linguagem de programação a usar palavras em inglês. Posteriormente, foi incorporada ao COBOL, a linguagem de programação de negócios que tornou a computação uma ferramenta do mundo dos negócios, não apenas do mundo científico. Hopper liderou um esforço para padronizar o COBOL e persuadir toda a Marinha a usar a linguagem de programação. Ela apoiou a padronização e compatibilidade entre computadores e, sob sua direção, a Marinha desenvolveu um conjunto de programas para validar compiladores COBOL. O conceito de validação teve um amplo impacto em outras linguagens e organizações e, eventualmente, levou a padrões e recursos de validação para a maioria das linguagens de programação.

Ralph H. Baer

Fonte: Ralphbaer.com

19. Ralph H. Baer (1922-2014)

Como relata o The New York Times, Ralph Baer patenteou o primeiro sistema de videogame caseiro , dando início a uma área que não é apenas um passatempo onipresente e uma grande indústria, mas atuou como um catalisador que levou cientistas e engenheiros a multiplicar a velocidade, a memória e a visualização do computador na extensão que vemos hoje. Em 1966, ele concebeu uma “caixa de jogo” que permitiria aos usuários jogar jogos de tabuleiro, jogos de ação, jogos de esportes e muito mais em quase qualquer aparelho de televisão americano. Em 1971, Baer e seu empregador, Sanders Associates, pediram a primeira patente de videogame, reivindicando legalmente qualquer produto que incluísse uma televisão doméstica com circuitos capazes de produzir e controlar pontos em uma tela. Depois que a patente foi concedida, Sanders licenciou o sistema para a Magnavox, que começou a vender o produto como Odyssey, o primeiro console de vídeo doméstico, em 1972.

40 transistores e 40 diodos rodavam todo o sistema, incluindo duas unidades de controle de jogadores e um conjunto de placas de programa eletrônicas, cada uma suportando um jogo diferente. Nos 20 anos seguintes, a Magnavox processou dezenas de empresas que infringiram sua patente original. A invenção de Baer marcou o início de uma mudança monumental na relação dos humanos com as máquinas. Seguiu-se uma revolução contínua no microprocessamento com o surgimento dos campos da ciência da computação e da engenharia da televisão para apoiá-la.

Junto com o Pong da Atari, que tinha sons e eletrônicos mais avançados, a Odyssey levou os jogos a um reino mais rápido e complexo, e Baer observou que, se não fosse pelo público ávido de entusiastas de videogames, então processadores de alta velocidade e computadores complexos gráficos seriam encontrados apenas no mundo dos negócios e da ciência.

Edgar F. Codd

Fonte: Nap.edu

20. Edgar F. Codd (1923-2003)

Como o site da A.M. Relatórios do Prêmio Turing, Edgar F. Codd criou o modelo relacional de dados , uma invenção que impulsionou uma indústria de banco de dados no valor de dezenas de bilhões de dólares. No final dos anos 1950, ele liderou a equipe da IBM que desenvolveu o primeiro sistema de multiprogramação do mundo. “Multiprogramação” refere-se à capacidade de programas desenvolvidos independentemente uns dos outros para serem executados simultaneamente. Enquanto um programa aguarda a ocorrência de um evento, outro programa pode usar a unidade de processamento central do computador. Multiprogamming agora é padrão em praticamente todos os sistemas de computador. Ele trabalhou em técnicas de alto nível para especificação de software e, em seguida, voltou sua atenção para problemas de banco de dados.

Embora existissem vários produtos de banco de dados na época, eles eram difíceis de usar e exigiam habilidades técnicas altamente especializadas. Eles também careciam de uma base teórica sólida, e Codd, que reconheceu a necessidade dessa base, forneceu-a ao inventar o modelo relacional de dados, muitas vezes reconhecido como uma das maiores conquistas técnicas do século XX.

O modelo relacional fornece um método de estruturação de dados usando relações ou estruturas matemáticas do tipo grade que são construídas a partir de colunas e linhas. A manifestação física de um relacionamento em um banco de dados é popularmente conhecida como tabela e, no modelo relacional, todos os dados devem ser armazenados em tabelas. O modelo relacional forneceu uma estrutura teórica dentro da qual uma variedade de problemas de banco de dados podem ser tratados. Essencialmente, todos os bancos de dados usados ​​hoje operam com base nas ideias de Codd.

John Warner Backus

Fonte: Amturing.acm.org

21. John Warner Backus (1924-2007)

John Warner Backus dirigiu a equipe que desenvolveu o Fortran, abreviação de 'Formula Translation', a primeira linguagem de programação de alto nível influente. O Washington Post relata que antes do Fortran, os computadores tinham que ser meticulosamente codificado à mão , programado em cadeias brutas de dígitos que invocariam ações dentro da máquina. Fortran era uma linguagem de alto nível que abstraía esse trabalho para permitir que os programadores digitassem comandos por meio de um sistema mais intuitivo. O computador poderia então traduzir a entrada do programador em código de máquina por conta própria.

O Fortran reduziu o número de instruções de programação necessárias para operar uma máquina em um fator de 20 e demonstrou aos céticos que as máquinas podiam funcionar com eficiência sem codificação manual. Depois disso, as linguagens de programação e o software proliferaram, e o Fortran ainda está em uso hoje. Backus também desenvolveu um método para descrever a sintaxe de linguagens de programação, conhecido como Backus-Naur Form.

Seymour Cray

Fonte: Cgl.ucsf.edu

22. Seymour Cray (1925-1996)

Seymour Cray é conhecido como o 'pai da supercomputação' e por anos construiu os supercomputadores mais rápidos do mundo. Em 1957, ele ajudou a fundar a Control Data Corporation e lá construiu o computador científico mais rápido de todos os tempos, resultando no CDC 1604, o primeiro computador comercial totalmente transistorizado, que substituiu totalmente as válvulas de vácuo usadas nos computadores anteriores. O lançamento do CDC 6600, considerado o primeiro supercomputador real do mundo, veio em 1963. Ele era capaz de nove Mflops, ou milhões de operações de ponto flutuante por segundo, e o CDC 7600, rodando a 40 Mflops, foi lançado em seguida.

O supercomputador vetorial Cray-1, lançado em 1976, substituiu os transistores por circuitos integrados e entregou 170 Mflops. Em 1985, o sistema Cray-2 avançou na supercomputação novamente, quebrando a barreira dos gigaflop (mil Mflops). Introduzido em 1988, o Cray Y-MP foi o primeiro supercomputador do mundo a sustentar mais de 1 gigaflops em muitos aplicativos, e vários processadores de 333 megaflops acionaram o sistema a uma velocidade sustentada recorde de 2,3 gigaflops.

Em seu “tributo” a Cray, Charles Breckenridge escreveu que Cray considerava cada sistema em que trabalhou como um trampolim para o próximo. Muitos deles serviram de base para sistemas construídos por outros usando seus projetos básicos. Grande parte da competição por suas máquinas vinha de empresas nas quais ele contribuiu para o sucesso. Ele dedicou sua carreira ao projeto e desenvolvimento de sistemas de grande escala e alto desempenho para ciência e engenharia.

Douglas Engelbart no SRI

Fonte: Sri.com

23. Doug C. Engelbart (1925-2013)

Como relata o The New York Times, Douglas C. Engelbart passou dois anos na Marinha e leu 'As We May Think' de Vannevar Bush, onde Bush descreveu o sistema de recuperação universal chamado memex. A ideia ficou com Engelbart, que passou a estabelecer um grupo de pesquisa experimental no Stanford Research Institute. A unidade, o Augmentation Research Center ou ARC, teve o apoio financeiro da Força Aérea, da NASA e da Advanced Research Projects Agency, um braço do Departamento de Defesa.

Na década de 1960, Engelbart desenvolveu uma variedade de tecnologias de computação interativas e, na Fall Joint Computer Conference de 1968, em San Francisco, demonstrou como um sistema de computação interativa em rede permitiria aos cientistas colaborar compartilhar informações rapidamente. Ele demonstrou como um mouse - que ele inventou apenas quatro anos antes - pode ser usado para controlar um computador e demonstrou edição de texto, videoconferência, hipertexto e janelas. A ideia do mouse ocorreu a ele pela primeira vez em 1961, quando ele considerou o desafio de tornar a computação interativa mais eficiente.

O sistema criado por Engelbart, denominado oNLine System, ou NLS, permitiu aos pesquisadores criar e recuperar documentos na forma de uma biblioteca eletrônica estruturada. A tecnologia seria posteriormente refinada no Palo Alto Research Center da Xerox e no Stanford Artificial Intelligence Laboratory, e a Apple e a Microsoft a transformariam para uso comercial na década de 1980.

Engelbart estava convencido de que os computadores se tornariam rapidamente mais poderosos e que teriam poder de processamento suficiente para projetar o sistema Augment semelhante ao Memex que ele imaginou. Em 1969, seu sistema Augment NLS se tornou o aplicativo para o qual foi criado o precursor da Internet que temos hoje. O sistema era chamado de rede de computadores ARPAnet, e SRI era a casa de seu centro de operação e um de seus primeiros dois nós. Engelbart foi um dos primeiros a perceber o poder dos computadores e o impacto que eles teriam na sociedade.

John McCarthy

Fonte: Formal.stanford.edu

24. John McCarthy (1927-2011)

Conforme relata Stanford, John McCarthy foi uma figura seminal no campo da inteligência artificial. Ele cunhou o termo “inteligência artificial” e passou as cinco décadas seguintes de sua carreira definindo o campo. Em 1958, McCarthy inventou a linguagem de programação de computador LISP, a segunda linguagem de programação mais antiga depois do Fortran. LISP ainda está em uso hoje e é a linguagem de programação de escolha para inteligência artificial. Ele também desenvolveu o conceito de compartilhamento de tempo de computador no final dos anos 1950 e início dos anos 1960. A inovação melhorou significativamente a eficiência da computação distribuída, embora tenha sido anterior à era da computação em nuvem em décadas.

Em um artigo de 1960, McCarthy delineou os princípios de sua filosofia de programação e descreveu 'um sistema que deve desenvolver a inteligência da ordem humana.' Em 1966, ele chamou a atenção por hospedar uma série de quatro partidas simultâneas de xadrez por computador, conduzidas via telégrafo contra rivais na Rússia. As partidas foram disputadas com duas peças de cada lado e duraram vários meses. McCarthy mais tarde se referiria ao xadrez e outros jogos de tabuleiro como a Drosophila da inteligência artificial, referindo-se às moscas-das-frutas que se mostraram importantes nos primeiros estudos da genética.

Mais tarde, ele desenvolveu o primeiro sistema de computador olho-mão, no qual o computador podia ver blocos 3D reais por meio de uma câmera de vídeo e controlar um braço robótico para realizar exercícios de empilhamento e organização dos blocos. McCarthy cofundou o Projeto de Inteligência Artificial do MIT e o que se tornou o Laboratório de Inteligência Artificial de Stanford.

Jean E. Sammet

Fonte: Alumnae.mtholyoke.edu

25. Jean E. Sammet (1928-)

Jean E. Sammet supervisionou o primeiro grupo de programação científica da Sperry Gyroscope Co. e ingressou na IBM em 1961 para organizar e gerenciar o Boston Programming Center. De acordo com a IEEE Computer Society, ela iniciou o conceito e dirigiu o desenvolvimento do primeiro FORMAC ou FORmula Manipulation Compiler.

FORMAC foi a primeira linguagem e sistema geral amplamente usados ​​para a manipulação simbólica de expressões algébricas não numéricas. Sammet lançou a base para o que se tornaria uma importante área de pesquisa e desenvolvimento em computação: a área de criação de linguagens de programação.

Gordon Moore e Robert Noyce da Intel

Fonte: Blogs.intel.com

26. Gordon E. Moore (1929-) e 27. Robert N. Noyce (1927-1990)

Gordon E. Moore e Robert N. Noyce cofundou a Intel em 1968 com o intuito de desenvolver e produzir produtos integrados em larga escala, começando pelas memórias semicondutoras, de acordo com a IEEE Computer Society. Pouco depois, a Intel produziu o primeiro microprocessador do mundo. Em meados da década de 1970, Moore observou que o número de elementos elétricos por chip de circuito integrado dobraria anualmente. Posteriormente, esse período foi alterado para 24 meses. Sua observação ficou conhecida como 'Lei de Moore' e, desde então, permitiu que as comunidades empresariais e acadêmicas estimassem o progresso futuro dos circuitos integrados.

Noyce, junto com Jack Kilby, é creditado com a invenção do circuito integrado, ou o próprio microchip. Em julho de 1959, Noyce entrou com o pedido de patente norte-americana 2.981.877, 'Dispositivo semicondutor e estrutura de chumbo', um tipo de circuito integrado. Seu esforço independente foi registrado poucos meses após as principais descobertas do inventor Jack Kilby. Embora a invenção de Kilby tenha ocorrido seis meses antes, nenhum dos dois rejeitou o título de co-inventor.

Philip Don Estridge

Fonte: Computinghistory.org

28. Philip Don Estridge (1937-1985)

Don Estridge liderou o desenvolvimento do primeiro computador pessoal IBM, e é conhecido como o pai do IBM PC . De acordo com o The New York Times, foi sob a liderança de Estridge que uma pequena equipe de funcionários da IBM começou a trabalhar em 1980 no primeiro microcomputador da IBM. Na época, ninguém na empresa tinha ideia de como o projeto iria revolucionar a indústria de informática, colocando milhões de pequenos computadores em desktops de escritórios e mesas de cozinha em todo o mundo.

Os engenheiros de Estridge vinham do mundo dos grandes computadores, e sua maior tarefa era fazer com que descobrissem como um não-especialista poderia usar rapidamente uma máquina IBM. Eles aprenderam que a forma como as pessoas reagem emocionalmente a um computador é quase mais importante do que o que realmente fazem com ele. Em apenas quatro meses, Estridge e sua equipe desenvolveram o protótipo de um pequeno computador de escritório que foi rapidamente apelidado de PC. O PC estava nas prateleiras de varejo em um ano e, no final de 1983, o PC ultrapassou o Apple II como o computador pessoal mais vendido.

A equipe quebrou várias tradições na IBM, e Estridge recebeu autoridade para tomar todas as decisões necessárias para colocar a empresa no negócio de computadores pessoais rapidamente. Ele rejeitou os componentes construídos pela IBM e, em vez disso, escolheu peças baratas e prontas para uso de outros fornecedores. Ele tornou públicas as especificações de design do computador, permitindo que milhares de pessoas escrevessem programas para a máquina. Vários desses programadores construíram negócios multimilionários, e a disponibilidade de uma ampla gama de programas para a plataforma impulsionou as vendas da IBM.

Vint Cerf e Bob Kahn

Fonte: Paw.princeton.edu

29. Bob Kahn (1938-) e 30. Vint Cerf (1943-)

Bob Kahn e Vint Cerf são considerados os pais da Internet e, em 1974, publicaram um artigo de pesquisa no qual propunham um protocolo denominado “TCP”. Esse protocolo mais tarde se tornaria IP, o protocolo oficial da camada de rede da Internet. O TCP incorporou serviços orientados à conexão e de datagrama. Logo ficou claro que o projeto poderia ser subdividido em dois protocolos separados.

Era difícil implementar o gerenciamento de sessões de maneira independente do aplicativo. Na prática, um aplicativo poderia ser executado com mais eficiência ou ser implementado com mais facilidade ao gerenciar as próprias conexões de rede. O TCP tornou-se o Internet Protocol (IP), que suportava datagramas e o Transmission Control Protocol (TCP / IP), que adicionava semântica de conexão como uma camada sobre o IP. O TCP / IP descreve a arquitetura fundamental da Internet e possibilitou desenvolvimentos posteriores como WiFi, Ethernet, LANs, World Wide Web, e-mail, FTP, 3G / 4G, bem como todas as invenções construídas sobre eles.

Zach e Tori tiveram um bebê anão?

Cerf ingressou na MCI Communications para liderar o desenvolvimento de sistemas de correio eletrônico para a Internet, e Kahn criou a Corporation for National Research Initiatives, onde se concentrou em gerenciar e distribuir o conteúdo mundial como uma espécie de Google não proprietário. Cerf é conhecido como um “embaixador da Internet”, um forte defensor de uma Internet que permanece independente do controle do Estado e um grande defensor da ideia de neutralidade da rede. O New York Times relata que Kahn fez um esforço para ficar de fora do debate sobre a neutralidade da rede , mas contribuiu com esforços para construir suporte para um sistema conhecido como Digital Object Architecture, que foi feito para rastrear e autenticar todo o conteúdo distribuído pela Internet.

Ray Tomlinson

Fonte: Raytheon.com

31. Ray Tomlinson (1941-)

De acordo com o The Verge em 1971, Ray Tomlinson foi um graduado recente do MIT contratado para ajudar a construir os primeiros componentes do Rede de agências para projetos de pesquisas avançadas (ARPANET), o precursor da Internet. Por conta própria, ele decidiu construir um programa de mensagens em rede. Na época, a maioria dos computadores permitia que os usuários trocassem mensagens, mas como poucos computadores estavam em rede, havia poucos motivos para enviar mensagens entre computadores. A solução de Tomlinson usou o agora onipresente símbolo “@” para indicar e-mail em rede.

Tomlinson observou que, na época, os computadores eram caros e eram compartilhados por vários usuários ao mesmo tempo, e o usuário mudava rapidamente a atenção de um trabalho para o outro. A ideia de enviar mensagens a outros usuários já existia há vários anos e, em 1971, Tomlinson viu uma oportunidade de estendê-la a usuários em outros computadores, usando a conexão de rede para transferir as informações da caixa de correio de um computador para outro. Ele usou um protocolo experimental de transferência de arquivos para enviar arquivos de caixas de correio entre computadores para criar o primeiro sistema de e-mail em rede.

A constatação de que a inovação era significativa só veio a ser refletida posteriormente no 25º aniversário da ARPANET. A ideia tinha uma origem orgânica e muitos programadores começaram a trabalhar nela à medida que as pessoas se agarraram à ideia de deixar mensagens umas para as outras no computador.

Ken Thompson e Dennis Ritchie (em pé) no Bell Labs

Fonte: Computerhistory.org

32. Ken Thompson (1943-) e 33. Dennis Ritchie (1941-2011)

O Museu de História do Computador relata que, em 1969, Ken Thompson e Dennis Ritchie criou o UNIX operacional sistema da Bell Telephone Laboratories. UNIX era uma versão reduzida do sistema operacional MIT MULTICS, que deveria ser executado nos minicomputadores menores que estavam se tornando disponíveis no final da década de 1960. Ritchie construiu C porque ele e Thompson precisavam de uma maneira melhor de construir UNIX. Como observa a Wired, o kernel UNIX original foi escrito em linguagem assembly, e eles decidiram que eles precisavam de uma linguagem de nível superior para dar a eles mais controle sobre os dados do sistema operacional.

Quando foi reescrito na linguagem de programação C por Ritchie, o UNIX se tornou um sistema operacional verdadeiramente portátil que podia ser executado em uma ampla variedade de plataformas de hardware diferentes. A própria linguagem C foi amplamente adotada e é amplamente utilizada hoje. O UNIX se tornou a espinha dorsal da infraestrutura técnica do mundo moderno, e o UNIX ou uma de suas muitas variantes é executado em dispositivos de supercomputadores a smartphones. Quase tudo na web usa C e UNIX. Até o Windows já foi escrito em C, e o UNIX sustenta o Mac OS X e o iOS.

Rádios Perlman

Fonte: Nwrwic.org

34. Radios Perlman (1951-)

Quando Radia Perlman frequentou o MIT no final dos anos 1960 e 1970, ela era uma entre apenas algumas dezenas de mulheres em uma classe de mil. The Atlantic relata que ela passou a se tornar uma líder no campo da ciência da computação, desenvolvendo o protocolo por trás do protocolo Spanning Tree (STP), que tornou possível a Internet de hoje.

Spanning Tree é um protocolo de rede que garante uma topologia sem loop para qualquer rede local Ethernet em ponte. A função essencial do STP é evitar loops de ponte e a radiação de broadcast resultante. Ele permite que um projeto de rede inclua links redundantes que fornecem caminhos de backup automáticos se o link ativo falhar. Perlman também fez contribuições importantes para as áreas de design e padronização de rede, como protocolos link-state. Ela inventou o TRILL para corrigir as falhas de Spanning Tree e foi pioneira no processo de ensino de programação de computadores para crianças pequenas, desenvolvendo TORTIS, uma versão das linguagens de robótica educacional, LOGO.

Perlman é frequentemente referida como a mãe da Internet, mas ela disse ao The Atlantic que não gostou do título porque a Internet não foi inventada por um indivíduo. Ela reconhece que fez “algumas contribuições fundamentais para a infraestrutura subjacente, mas nenhuma tecnologia isolada realmente fez com que a Internet fosse bem-sucedida”. O sucesso da Internet não se deve às tecnologias específicas, mas sim à variedade de maneiras como a Internet passou a ser usada.

Richard Stallman, ativista norte-americano pela liberdade de software e programador de computador

Fonte: Francois Guillot / AFP / Getty Images

35. Richard Stallman (1953-)

Richard Stallman trabalhou no Artificial Intelligence Lab no MIT de 1971 a 1984, aprendendo o desenvolvimento de sistema operacional, escrevendo o primeiro editor de texto extensível do Emacs lá em 1976 e desenvolvendo a técnica de IA de retrocesso dirigido pela dependência, também conhecido como manutenção da verdade. De acordo com seu site, em 1983 Stallman anunciou o projeto para desenvolver o sistema operacional GNU , um sistema operacional semelhante ao Unix destinado a ser um software totalmente livre. Com esse anúncio, ele também lançou o movimento do software livre e, em 1985, fundou a Fundação para o Software Livre.

O sistema GNU / Linux, que é uma variante do GNU e também usa o kernel Linux desenvolvido por Linus Torvalds, é usado em dezenas de milhões ou mesmo centenas de milhões. Mas os distribuidores geralmente incluem software não-livre nesses sistemas, portanto, desde os anos 1990, Stallman defende o software livre e faz campanha contra as patentes de software e a extensão perigosa das leis de copyright. ( Correção 17/02/15: intervalo de computadores rodando GNU / Linux alterado. )

Foto de Sean Gallup / Getty Images

Fonte: Sean Gallup / Getty Images

36. Bill Gates (1955-)

Bill Gates é o famoso co-fundador da Microsoft com Paul Allen em 1975. Na época, sua visão de um computador em cada desktop e em cada casa parecia rebuscada, mas desde então se tornou uma realidade em muitas partes do mundo. De acordo com o Biography.com, ambos trabalhavam na MITS, uma pequena empresa que fazia o Kit de minicomputador Altair 8800 . Eles construíram um programa de software BASIC que rendeu à empresa uma taxa e royalties, mas não atendeu às suas despesas gerais. O software também era popular entre os amadores que reproduziam e distribuíam cópias do software gratuitamente, e Gates via a distribuição gratuita de software como um roubo, especialmente quando o software foi criado para ser vendido. A Microsoft escreveu software em diferentes formatos para uma variedade de empresas de informática e, à medida que a indústria de computadores começou a crescer com empresas como Apple, Intel e IBM, Gates estava sempre na estrada promovendo os méritos do software Microsoft.

Em novembro de 1980, a IBM estava procurando um software que funcionasse em seu próximo computador pessoal e abordou a Microsoft. No entanto, a Microsoft não havia desenvolvido o sistema operacional básico que rodaria nos computadores da IBM, então a Microsoft comprou um sistema operacional, fazendo um acordo com o desenvolvedor para tornar a Microsoft o agente de licenciamento exclusivo e, posteriormente, o proprietário total do software. Gates adaptou e licenciou o software, chamado MS-DOS, e logo lançou um software chamado Softcard, que permitiu ao Microsoft BASIC operar em máquinas Apple II.

Em 1981, a Apple convidou a Microsoft para desenvolver software para computadores Macintosh. Por meio desse compartilhamento de conhecimento, a Microsoft desenvolveu o Windows. O sistema da Apple usava um mouse para conduzir uma interface gráfica, exibindo texto e imagens na tela. Ele diferia drasticamente do sistema de texto e teclado do MS-DOS, e a Microsoft desenvolveu o Windows com uma interface gráfica. A Microsoft lançou o Windows em 1985 com um sistema que parecia visualmente semelhante ao da Apple. Em 1986, Gates abriu o capital da Microsoft e tornou-se instantaneamente milionário.

Foto de Justin Sullivan / Getty Images

Fonte: Justin Sullivan / Getty Images

37. Steve Jobs (1955-2011)

Em 1976, quando Jobs tinha apenas 21 anos, ele e Steve Wozniak co-fundaram a Apple Computer. Eles começaram na garagem da família Jobs e têm o crédito de revolucionar a indústria de computadores, tornando as máquinas menores, mais baratas, mais intuitivas e mais acessíveis ao consumidor em geral. De acordo com Biography.com, Wozniak concebeu um série de computadores fáceis de usar , e Jobs assumiu o marketing, inicialmente por US $ 666,66 cada. Em 1980, a Apple Computer tornou-se uma empresa de capital aberto e atingiu um valor de mercado de US $ 1,2 bilhão ao final de seu primeiro dia de negociação.

Os vários produtos seguintes da Apple sofreram falhas de design e a IBM ultrapassou a Apple em vendas. Em 1984, a Apple lançou o Macintosh, que ainda não era compatível com a IBM, e a empresa começou a eliminar Jobs. Ele deixou a Apple em 1985 para começar a NeXT e comprou uma empresa de animação que mais tarde se tornou a Pixar e se fundiu com a Walt Disney em 2006. Mas a NeXT lutou para vender seu sistema operacional especializado para clientes convencionais, e a Apple acabou comprando a empresa em 1996. Empregos então voltou ao cargo de presidente-executivo da Apple e revitalizou a empresa com produtos como o iMac. O marketing eficaz e o design atraente da Apple começaram a ganhar a preferência dos consumidores novamente.

A empresa introduziu inovações como o MacBook Air, iPod e iPhone, que tiveram efeitos monumentais no curso da tecnologia moderna. Depois de lutar contra o câncer de pâncreas por quase uma década, Jobs faleceu aos 56 anos em 2011.

Cientista da computação britânico Tim Berners-Lee

Fonte: Carl Court / AFP / Getty Images

38. Tim Berners-Lee (1955-)

Tim Berners-Lee é mais conhecido como o inventor da World Wide Web, que começou em 1989. Ele fundou o World Wide Consortium como um fórum para o desenvolvimento técnico da web, e também fundou a Web Foundation e cofundou o Open Data Institute. Berners-Lee inventou a web enquanto estava no CERN, o grande laboratório de física de partículas perto de Genebra, e escreveu o primeiro cliente e servidor web em 1990.

De acordo com o site da World Wide Web Foundation, ele notou que muitos cientistas que participaram de experimentos no CERN e voltaram para seus laboratórios ao redor do mundo estavam ansioso para trocar dados e resultados , mas achou difícil fazer isso. Ele entendeu o potencial não realizado de milhões de computadores conectados pela Internet e documentou o que se tornaria a World Wide Web com a apresentação de uma proposta especificando um conjunto de tecnologias que tornariam a Internet verdadeiramente acessível.

Em outubro de 1990, ele especificou as três tecnologias fundamentais que permanecem a base da Web de hoje: HTML, URI e HTTP. Suas especificações foram refinadas conforme a tecnologia da web se espalhou. Ele também escreveu o primeiro editor / navegador de página da web e o primeiro servidor da web. No final de 1990, a primeira página da web foi veiculada e, em 1991, pessoas de fora do CERN ingressaram na comunidade da web. Em 1993, o CERN anunciou que a tecnologia estaria disponível para uso de qualquer pessoa. Desde então, a web mudou o mundo.

Linus Torvalds da Finlândia

Fonte: Jarno Mela / AFP / GettyImages

39. Linus Torvalds (1969-)

Linus Torvalds criou o kernel Linux e supervisionou o desenvolvimento de código aberto do sistema operacional Linux amplamente usado. Depois de comprar um computador pessoal, ele começou a usar o Minix, um sistema operacional inspirado no Unix desenvolvido por Andrew Tannenbaum. Em 1991, Torvalds começou a trabalhar em um novo kernel, que mais tarde seria chamado de Linux, e depois de formar uma equipe de voluntários, lançou a primeira versão em 1994. Ele continua supervisionando o desenvolvimento do Linux e é a autoridade final sobre quais novidades o código é implementado no kernel Linux padrão.

Larry Page e Sergey Brin

Fonte: Ralph Orlowski / Getty Images

40. Larry Page (1973-) e 41. Sergey Brin (1973-)

Larry Page e Sergey Brin se conheceram na Universidade de Stanford, onde, para um projeto de pesquisa, desenvolveram um mecanismo de busca que listava os resultados de acordo com a popularidade das páginas. Eles investigaram como os sites vinculavam a outras páginas da web e perceberam que ajudar as pessoas a encontrar páginas com mais links de entrada, principalmente de sites confiáveis, seria uma boa maneira de pesquisar na Internet. Eles também perceberam que o resultado mais popular costuma ser o mais útil. Eles chamaram o mecanismo de busca de Google após o termo matemático googol, que se refere ao número um seguido por 100 zeros. O nome, de acordo com Biography.com, reflete sua missão de organizando a enorme quantidade de informações disponível na web.

O Google foi incorporado em 1998, e Page e Brin levantaram US $ 1 milhão de amigos e familiares para lançar sua startup, saindo do campus de Stanford e indo para uma garagem alugada. O Google cresceu de escritório após escritório. Desde que lançaram o Google em 1998, ele se tornou o mecanismo de pesquisa mais popular do mundo e empreendeu uma grande variedade de empreendimentos, como lançar o Gmail, fazer o Google Maps, digitalizar livros, criar Android e comprar o YouTube. O laboratório de inovação secreto do Google, o Google X, deu origem a projetos como o Google Glass e o carro autônomo, e o Google continua investindo em pesquisas em uma ampla variedade de áreas, desde robótica até saúde.

Marc Andreessen

Fonte: Michael Kovac / Getty Images para Vanity Fair

42. Marc Andreessen (1971-)

Marc Andreessen era aluno do National Center for Supercomputing Applications (NCSA) da Universidade de Illinois quando a World Wide Web estava começando a decolar, de acordo com a iBiblio, e sua posição permitiu que ele se tornasse muito familiarizado com a Internet e a web . A maioria dos navegadores disponíveis na época era para máquinas Unix caras (o que significa que a web era usada principalmente por acadêmicos e engenheiros) e as interfaces de usuário não eram amigáveis. Ambos os fatores atrapalharam a disseminação da web, e Andreessen decidiu desenvolver um navegador que fosse mais fácil de usar e mais rico em termos gráficos.

Em 1992, Andreessen recrutou um colega funcionário da NCSA, Eric Bina, para ajudar no projeto, um novo navegador chamado Mosaic. Era mais sofisticado graficamente do que outros navegadores de sua época e incluía inovações significativas como a tag “imagem”, que possibilitava incluir imagens em páginas da web. Os navegadores anteriores permitiam a visualização de imagens, mas apenas como arquivos separados. O Mosaic também apresentava uma interface gráfica com botões clicáveis ​​que permitiam aos usuários navegar facilmente e controles que os permitiam rolar pelo texto. Outro dos recursos mais inovadores do Mosaic foi o hiperlink. Em navegadores anteriores, os links de hipertexto tinham números de referência que o usuário digitaria para navegar até o documento vinculado. Os hiperlinks permitem que os usuários simplesmente cliquem em um link para recuperar um documento.

Em 1993, o Mosaic foi postado nos servidores da NCSA e, em semanas, dezenas de milhares de pessoas baixaram o software. A versão original era para Unix, e Andreessen e Bina montaram uma equipe para construir versões para PC e Mac. A popularidade da Mosaic disparou. Mais usuários significavam um público maior para a web em geral, e públicos maiores catalisaram a criação de mais conteúdo.

Andreessen percebeu que, ao se formar, a NCSA assumiria a Mosaic, então se mudou para o Vale do Silício, se estabeleceu em Palo Alto e montou uma equipe com a missão de criar um produto que superasse o Mosaic original. Eles criaram o Netscape, que estava disponível em 1994, e em poucas semanas era o navegador preferido da maioria dos usuários da web. Ele incluiu novas tags HTML para dar aos designers maior controle e criatividade e, em 1996, era usado por 75% dos usuários da web.

Embora a Netscape tenha perdido seu domínio para a Microsoft e outros concorrentes posteriores (em parte devido à 'guerra dos navegadores' e em parte devido a uma mudança no cenário em que a estrutura de preços da Netscape se tornou sua queda), ela foi adquirida em 1999 pela AOL. Andreessen partiu para vários outros empreendimentos, fundando empresas e atuando no conselho de diretores de gigantes como Facebook, eBay e HP.

O CEO do Facebook, Mark Zuckerberg, apresenta o kenote de abertura na conferência f8 do Facebook em 30 de abril de 2014

Fonte: Justin Sullivan / Getty Images

43. Mark Zuckerberg (1984-)

Mark Zuckerberg é o famoso co-fundador do Facebook em seu dormitório em Harvard. Biography.com relata que em Harvard, seus colegas estudantes Divya Narendra e os gêmeos Cameron e Tyler Winklevoss procuraram Zuckerberg para trabalhar no uma ideia para um site de rede social que usaria informações das redes de alunos de Harvard para criar um site de namoro. Ele concordou em ajudar, mas logo começou a trabalhar em sua própria rede social com Dustin Moskovitz, Chris Hughes e Eduardo Saverin.

Eles criaram um site que permitia aos usuários criar perfis, fazer upload de fotos e se comunicar com outras pessoas. Eles administraram o site, originalmente chamado de Facebook, em um dormitório até junho de 2004. Depois de seu segundo ano, Zuckerberg abandonou Harvard e mudou-se para Palo Alto para trabalhar no Facebook em tempo integral. No final de 2004, o Facebook tinha 1 milhão de usuários. Um investimento de US $ 12,7 milhões da Accel Partners elevou a base de usuários do Facebook para mais de 5,5 milhões no final de 2005.

Uma disputa legal de 2006 com Narendra e os Winklevosses - que alegaram que Zuckerberg roubou sua ideia - levou a um acordo inicial de US $ 65 milhões. Apesar das críticas a Zuckerberg, após um livro e filme que supostamente ficcionalizava aspectos da história do Facebook, Zuckerberg e o Facebook continuaram a ter sucesso. A empresa anunciou a aquisição do Instagram em abril de 2012 e tornou-se público em maio de 2012. Desde então, lançou uma infinidade de recursos e aplicativos, incluindo Casa, Papel, Amigos Próximos, Estilingue, Menções, Verificação de Segurança e Quartos, junto com mudanças contínuas e melhorias para os aplicativos do Facebook e site de desktop. Em dezembro de 2014, o Facebook tinha 1,39 bilhão de usuários ativos mensais.

Mais da Folha de Dicas de Tecnologia:

  • O próximo grande produto da Apple é um carro elétrico?
  • A inteligência artificial assumirá seu trabalho?
  • Elon Musk, da Tesla, é o novo Steve Jobs?