GRANDES PERSONALIDADES DE LA COMPUTACIÓN Y LA INFORMÁTICA

GRANDES PERSONALIDADES DE LA COMPUTACIÓN Y LA INFORMÁTICA



Ada Lovelace

 

quien fue ada lovelace 1 0



Ada Lovelace (10/12/ 1815-27/11/1852)

Fue pionera en el campo de la programación de computadoras. Amante de las matemáticas y las ciencias, trabajó con Charles Babbage, el padre de los ordenadores.

Ada Augusta Byron King popularmente conocida como Ana Lovelace nació el 10 de diciembre de 1815 en Inglaterra. Hija del gran poeta romántico Lord Byron, a quien nunca conoció, Ada, inició sus pasos dentro de las ciencias a muy corta edad.

Con gran rigor y disciplina, esta niña se distinguía del resto por sus preguntas insipientes y sed de conocimiento. Entre algunos de sus tutores se destaca el matemático y lógico Augustus De Morgan.

En 1833 comenzó a trabajar junto a Charles Babbage iniciándose rápidamente en el mundo de la programación.

 

La Primera Programadora de la Historia

En 1843, Ada publicó una serie de notas sobre la máquina analítica de Babbage. Este invento, que nunca se construyó, fue el antecedente del ordenador moderno. Pero ella no sólo se encargaba de esa tarea, también realizaba aportes a dicha investigación.quien fue ada lovelace 2

Como consta en sus escritos, Ada interpretó las ideas del científico protoinformático y describió un lenguaje de programación cuyos aportes marcaron precedentes dentro de la historia de la informática.


Reconocimiento Tardío

Luego de trabajar incansablemente y de una vida sentimental algo agitada, Ada Lovelace murió de cáncer, en 1852, a los 37 años. Sin duda, esta mujer que se definía como analítica y metafísica, fue una adelantada a su época.quien fue ada lovelace 4

Sin embargo, la historia fue poco generosa con ella y, por siglos, le asignó el papel de transcriptora de Babbage no reconociendo sus ideas de avanzada y grandes contribuciones.

Tuvo que pasar más de un siglo para que la historia le diera su lugar. Así fue como, en 1979, el Departamento de Defensa de los Estados Unidos reconoció los aportes de esta joven inglesa y creó un lenguaje de programación en su honor llamado Ada.

Sus Grandes Aportes

Esta joven genia también describió conceptos como el bucle y la subrutina y escribió un plan detallado para calcular los valores de los números de Bernoulli. Del mismo modo describió como se podían realizar operaciones trigonométricas y definió el uso de tarjetas perforadas para programar la mítica máquina de Babbage.quien fue ada lovelace 3

A lo largo de su existencia se relacionó con grandes científicos e intelectuales como Charles Wheatstone, Charles Dickens, Michael Faraday o Sir David Brewster.




 

Charles Babbage

 

Charles Babbage (1792/12/26-1871/10/18)

Charles Babbage

Inventor y matemático británico

  • Considerado el padre de las computadores digitales.

  • Obras: El noveno tratado de Bridgewater...

  • Área: Matemáticas, informática, filosofía analítica...

  • Padres: Betsy Plumleigh Teape y Benjamin Babbage

  • Cónyuge: Georgiana Whitmore

Hijos: Benjamin Herschel, Georgiana Whitmore, Dugald Bromhead, Henry Prevost, Charles Whitmore Babbage, Edward Stewart Babbage, Francis Moore Babbage, Alexander Forbes Babbage

"Se cometen muchos menos errores usando datos incorrectos que no empleando dato alguno” CHARLES BABBAGE 

Charles Babbage nació el 26 de diciembre de 1792 en TeignmouthDevon.
Cursó estudios en la Universidad de Cambridge.
Ingresó en la Real Sociedad en el año 1816 participando activamente en la fundación de la Sociedad Analítica, la Real Sociedad de Astronomía y la Sociedad de Estadística.
En 1822 construyo la primera de sus máquinas, que podía sumar números hasta de seis cifras y, en 1823, diseñó una máquina más elaborada a la que la llamó “máquina diferencial”, que debía estar provista de una impresora.
Para fabricar el primer modelo necesitaba dinero, 1,500 libras esterlinas, que fue proporcionado por el gobierno, comprometiéndose a entregar la máquina en dos años. Sin embargo, la construcción avanzaba muy lentamente y, al cumplirse el plazo 1827, la máquina aún no estaba terminada y Babbage sufrió una fuerte crisis nerviosa cuando se le acusó de haber dispuesto de los fondos del gobierno para su propio beneficio. A pesar de eso, se le adelanto más dinero y prosiguió con su trabajo hasta 1834, cuando el principal de sus mecánicos renunció y el invento quedo sin terminar. 

En 1991, científicos británicos siguiendo los dibujos y las especificaciones de Babbage, construyeron esa máquina diferencial: la máquina funcionaba a la perfección y hacia cálculos exactos con 31 dígitos, demostrando que su diseño era correcto.

En la década de 1830, inicio el desarrollo de su máquina analítica, que fue concebida para llevar a cabo cálculos más complicados, aunque no se construyo nunca.

Realizo también otros inventos, como el oftalmoscopio y el velocímetro.

En 1828 publico sus tablas de logaritmos del 1 al 108,000.

En 1830 apareció su libro Reflexiones sobre la decadencia de la ciencia en Inglaterra, al que siguieron, en 1832, Una economía de las maquinas y las manufacturas, y en 1837, El noveno tratado de Bridgewater.

El 25 de julio de 1814, contrajo matrimonio con Georgiana Whitmore. La pareja tuvo ochos hijos: Benjamín Herschel, Georgiana Whitmore, Dugald Bromhead, Henry Prevost, Charles Whitmore Babbage, Edward Stewart Babbage, Francis Moore Babbage y Alexander Forbes Babbage.Mariela MicheoOs´

Charles Babbage, falleció en Londres el 18 de octubre de 1871.

Sabias que…

Medalla 

La Royal Astronomical Society fue fundada por Babbage en 1820. Esta sociedad ayudo a Charrles a ganar unna medalla de oro por su trabajo en cálculos astronómicos en 1824.




Conocé la historia de Charles Babbage, el creador de la calculadora



Alan Turing

 

Alan Turing (23/06/1912-07/06/1954)Alan Turing - Wikipedia, la enciclopedia libre

 Fue un brillante matemático, criptoanalista e informático teórico nacido el veintitrés de Junio de 1912 en Maida Vale un distrito residencial al oeste de Londres. Turing, ademas de ser un brillante científico era homosexual, lo cual le costó la vida el siete de junio de 1954.

Turing es mundialmente conocido por cuatro hechos:

  • Formalizó los conceptos de algoritmo y computación con su máquina de Turing

  • Es considerado el padre de la inteligencia artificial

  • Su participación en el equipo de criptoanálisis de la máquina de criptografía alemana Enigma fue clave

  • Fue una víctima más de la mentalidad reaccionaria puritana del mundo anglosajon

El Gobierno Británico hizo una disculpa pública a título póstumo a través de Gordon Brown el diez de Septiembre del 2009 por haber procesado y perseguido a Alan Turing por ser homosexual. Es cuanto menos paradójico que Turing fuera procesado y perseguido a causa de su homosexualidad por un Gobierno que calificaba de monstruosos los actos del nazismo por procesar y perseguir a individuos por su credo religioso.

La Máquina de Turing

Una máquina de Turing, es un dispositivo teórico que manipula símbolos sobre una cinta de acuerdo con una tabla de reglas definida. Este modelo computacional puede ser adaptado para simular la lógica de cualquier algoritmo y es particularmente útil en la labor de explicar el funcionamiento de una CPU. La máquina de Turing fue descrita por Alan Turing en 1936 como respuesta al ensayo del matemático alemán David Hilbert “On Computable Numbers, with an Application to the Entscheidungsproblem“donde demostró que algunas de estas máquinas de Turing serían capaces de realizar cualquier cálculo matemático concebible si fuera representable con un algoritmo. También probó que no existe solución al Entscheidungsproblem (problema de decisión) ya que demuestra que no es posible decidir, en general, algorítmicamente si una máquina de Turing se encuentra en parada.Código Enigma, descifrado: el papel de Turing en la Segunda Guerra ...

Descripción

La máquina de Turing, modela de forma matemática una máquina que opera sobre una cinta. En esta cinta hay símbolos que la máquina puede escribir o leer, uno a la vez. Las operaciones que la máquina puede realizar están determinadas por un conjunto finito de instrucciones elementales como “si el estado es 6 y el valor es 0 escribe 1 y pasa al estado 27”.

Una máquina de Turing consta de las siguientes partes:

  • Una cinta que está dividida en celdas una al lado de la otra. Cada celda contiene un símbolo en algún alfabeto finito. Dicho alfabeto contiene un símbolo especial en blanco (blank symbol escrito como ‘B’) y uno o más símbolos adicionales. La cinta se supone infinita.

  • Una cabeza que puede leer y escribir símbolos en la cinta y mover la cinta a la izquierda o a la derecha una posición.

  • Una tabla de reglas finita de instrucciones, usualmente tuplas de cinco elementos que dado el estado (qi) en el que se encuentra actualmente la máquina y el símbolo (aj) que está siendo leído desde la cinta, indica a la máquina que realice la siguiente secuencia de acciones:   

    • Escribe o borra un símbolo

    • Mueve la cabeza (a la izquierda o la derecha)

    • Asume el mismo o un nuevo estado según lo prescrito

  • Un registro de estados donde se guarda el estado de la máquina de Turing.

Máquina de Turing Universal

Turing definió que es posible desarrollar una única máquina que pueda ser usada para computar cualquier secuencia computable. Si esta máquina U es suministrada con una cinta que en su comienzo esté escrita con tuplas quíntuples separadas por punto y coma provenientes de una máquina M, entonces U computará las mismas secuencias que M.

Este modelo de computación supone el avance teórico fundamental que condujo a la noción de programa de computadora almacenado.

Muerte

El 8 de junio de 1954, Turing fue encontrado muerto por su personal de limpieza. Un examen post-morten estableció que la causa de la muerte fue envenenamiento por cianuro ingerida al parecer al comer parte de una manzana bañada en esa sustancia que además se encontraba en la mesita al lado de su cama.

Conclusión

Desde 1966 se viene entregando de forma anual el premio Alan Turing por la Association for Computing Machinery a una persona en reconocimiento a su contribución técnica a la ciencia de la computación y a la Comunidad. Este premio está considerado como el mayor honor en el mundo de la computación, comparable al premio Nobel. Alan Turing fue otro genio víctima de la irracionalidad y la moralina caduca. Murió a la edad de 41 años, a pocos días de cumplir 42, si la vida de Turing no hubiese terminado de forma abrupta y violenta, seguramente otros muchos avances hubieran llegado de su mano, avances que nunca sabremos si han sido conseguidos o no.

 

 

 

Tim Berners-Lee

 Tim Berners-Lee

TIM BERNERS-LEE (1955/06/08)

Científico informático británico

  • Inventor de la World Wide Web.

  • Campos: Tecnologías de información y comunicación; Ciencias de la computación

  • Padres: Conway Berners-Lee y Mary Lee Woods

  • Cónyuges: Nancy Carlson (m. 1990; div. 2011), Rosemary Leith (m. 2014)

  • Hijos: Alice, Ben

  • Alias: TimBL - TBL

 

Tim Berners-Lee nació el 8 de junio de 1955, en Londres, Reino Unido.
Fue uno de los cuatro hijos de los matemáticos Conway Berners-Lee y Mary Lee Woods, que trabajaron en la primera computadora electrónica comercializada, la Ferranti Mark 1.
Graduado en física en el Queen's College de la Universidad de Oxford en 1976, cuando tenía 21 años. Estando en la universidad, fabricó una computadora con un viejo televisor comprado en un taller de reparación.

En 1978, ingresó en D.G. Nash Limited donde desarrolló un sistema operativo. En 1980 entró en CERN (Organización Europea para la Investigación Nuclear) donde presentó un proyecto basado en hipertexto para compartir información más fácilmente entre investigadores. Elaboró por entonces ENRIQUE, un programa que no llegó a lanzarse.

 

El CERN era el nodo de Internet más importante de Europa y donde Berners-Lee consiguió unir Internet e hipertexto (HTTP y HTML), creándose así la World Wide Wed el 12 de marzo de 1989, implementando la primera comunicación exitosa entre cliente y servidor  de Protocolo de Transferencia de Hipertexto (HTTP) a través de Internet a mediados de noviembre de ese mismo año aunque por entonces no tuvo repercuión. No fue hasta en 1990, y con una revisión realizada con Robert Cailliau, cuando fue aceptada por su gerente Mike Sendall.Tim Berners-Lee | Genios de la Computación y la Informática Wiki ...

Usando planteamientos parecidos a los que había usado en el sistema ENRIQUE, para crear la Wordl Wide Wed, diseñó el primer navegador, al que llamó WordWideWed, siendo desarrollado con NEXTSTEP, junto al primer servidor Wed al que llamó hhtpd  (HyperText Transfer Procol daemonn).

Profesor de Ciencias de la Computación en la Universidas de Oxford y en eel Instituto de Tecnologia de Massachusetts (MIT). Director de World Wide Wed Consortium (W3C), supervisor de la Wed. Fundador de la Word  Wide Wed Foundation; investigador principal y turular de la ccatedra de fundadores de 3Com en el Laboratorio de Ciencias de la Computación e Intelegencia Arficial (CSAIL) del MIT; director de la Wed Science Research Initiative (WSRI); miembro del consejo asesor del MIT Center for CollectiveAño 30 de la era de internet

En 1997, fue hecho oficial de la Orden del Imperio Britanico. Miembro de la Royal Society desde 2001. Recibio el  Premio Príncipe de Asturias, compartido con Lawerence Roberts, Robert Kahn y Vinton Cerf en la categoría de investigación cientica y técnica en 2002. El 16 de julio de 2004, la reina Isabel II le conncedio por su trabajo pionero el rango Knight Commander, la Orden más sobresaliente del Imperio Britanico. En abril de 2009, fue elegido asociado extranjero de la Academia Nacional de Ciencias de los Estados Unidos.

Desde 2011, pertenece al consejo de administración de la Fundación Ford. En 2012 se le hizo miembro del Salón de la Fama de Internet Society.

Apareció en la lista de la revista Time de las 100 personas más importantes del siglo XX.

Recibió el Premio Turing 2016 por innvenntar la Wodl Wide Wed, el primer naegddor y los protolos y algoritmos  fundamentales que permiten escalar la Wed.

Entre 1990 y 2011 estuvo casado con Nancy Carlsson. En 2014 coontrajo matrimonio ccon Rosemary Leith. Es padre de Alice y Ben.



 

Gordon Moore

 

GORDON MOORE (1929/01/03)MOORE, Gordon E.

Descripción

Gordon Earl Moore [Pescadero (California), 1929]. Físico y químico. Emprendedor. Co-fundador de Intel. Formuló la Ley de Moore.

 Gordon Earl Moore nació el 3 de enero de 1929 en el pueblo de Pescadero (California), donde su padre era el sheriff. La familia Moore se trasladó poco después a la ciudad de Redwood City en la península de San Francisco. Aunque más aficionado a los deportes que a los libros, demostró interés por las matemáticas y la química al final de sus estudios en Sequoia High School.

 Se matriculó en la Universidad estatal de San José (donde conoció a su esposa Betty) y dos años después ingresó en la Universidad de California en Berkeley, donde se graduó en Química en 1950. Cuatro años más tarde se doctoró en el Instituto Tecnológico de California (CalTech) en Física y Química.

En aquella época en el norte de California, actual epicentro de la tecnología, no existían puestos de trabajo disponibles para el nivel de conocimientos de Moore. Con su familia se trasladó a Maryland donde le ofrecieron un contrato como investigador en el Laboratorio de Física Aplicada de la Universidad Johns Hopkins. Aunque disfrutaba con lo que hacía, echaba en falta su aplicabilidad práctica. Y se le presentó una oportunidad, cuando William Shockley, el inventor del transistor, dejó los Laboratorios Bell para fundar Shockley Semiconductor en Palo Alto (California) y, buscando talento entre jóvenes doctores, contrató a Moore como químico. Sin embargo, el carácter opaco y de desconfianza de Shockley con sus colaboradores, provocó que ocho, Gordon Moore, Robert Noyce, Julius Blank, Victor Grinich, Jean Hoerni, Eugene Kleiner, Jay Last y Sheldon Roberts, conocidos como los "Traitorous Eight", abandonaran en 1957 la empresa de Shockley y, respaldados por Fairchild Camera and Instrument, mediante una aportación de $500.- cada uno, crearon Fairchild Semiconductor Corporation en Mountain View (California).

Logo Intel: la historia y el significado del logotipo, la marca y ...

Gordon Moore y Robert Noyce diseñaron un prototipo de circuito integrado en una fina oblea de silicio al mismo tiempo que Jack Kilby realizaba una experiencia similar en Texas Instruments. En 1968 Moore y Noyce decidieron separarse de Fairchild para dedicarse exclusivamente a la investigación y fabricación de semiconductores, creando a tal fin una empresa que denominaron Intel (Integrated Electronics Corporation). Gordon Moore ocupó inicialmente la vicepresidencia para pasar en 1975 a asumir la presidencia ejecutiva.

 En 1971 sacaron al mercado el microprocesador 4004. Y desde entonces se convirtieron en la compañía líder produciendo semiconductores cada vez más rápidos y más pequeños, bajo la inspiración de la famosa Ley de Moore. Esta ley empírica, publicada el 19 de abril de 1965 en la revista Electronics, establece que se duplica cada año el número de transistores y otros componentes que pueden ser alojados sobre un chip con una considerable reducción de costo. En una revisión efectuada en 1975 sustituyó el periodo de un año por 24 meses. El descubrimiento y enunciado de esta observación ha permitido a las comunidades académicas y empresariales calcular la progresión de los circuitos integrados.

 Moore estuvo a la cabeza de Intel hasta abril de 1987, momento en el que abandonó su puesto de CEO aunque siguió vinculado a la compañía como miembro emérito de la Junta Directiva hasta 2001. Desde entonces, Moore se ha convertido en un mecenas de la investigación y ha donado 600 millones de dólares al CalTech, con el objeto de que mantuviese el liderazgo de investigación y tecnología. Fue miembro de la Junta de Fideicomisarios de CaltTech desde 1994 hasta el 2000 y continúa siendo un fideicomisario hasta el momento.Tiene cabida la Ley de Moore en el futuro de los semiconductores ...

 Ha aportado también fondos para la construcción en Mauna Kea (Hawai) del mayor telescopio óptico, el TMT (The Thirty Meter Telescope).

 Gordon E. Moore es miembro de los Consejos de Transamerica Corporation, de Gilead Sciences Inc. y de Varian Associates Inc. Es miembro de la Academia Nacional de Ingeniería, fellow de la Royal Society of Engineers. El Instituto Tecnológico de California le otorgó el Premio de Antiguo Alumno Distinguido; la Sociedad Informática del IEEE el Premio W. W. McDowell; el IEEE el Premio Frederik Philips y la Medalla Computer Pioneer; y la Sociedad Estadounidense para los Metales la Medalla ASM para el Progreso de la Investigación.

En 1990 recibió la Medalla Nacional de Tecnología y en 1993 la Medalla John Fitz. A partir de 1996 la Biblioteca en el Centro para Ciencias Matemáticas de la Universidad de Cambridge lleva el nombre de Gordon Moore. En 1997 el IEEE le concedió la Medalla de Fundadores del IEEE "por el liderazgo en muy alto grado de integración y por las contribuciones pioneras en la tecnología de los circuitos integrados" y en 2008 la Medalla de Honor "por sus aportaciones al mundo de la electrónica y su liderazgo en el desarrollo de las memorias basadas en transistores MOS". En 2002 el presidente George W. Bush lo condecoró con la Medalla de la Libertad, máximo galardón civil de los EEUU. En el año 2003 fue elegido como miembro de la American Association for the Advancement of Science.

 Gordon E. Moore es mundialmente reconocido por la habilidad que tuvo para dirigir el mercado de los microprocesadores consolidando el poderío de Intel, guiándolo durante cuatro décadas en el mundo del hardware, lo que le salió bastante provechoso, pues a fecha de 10 de noviembre de 2016 figura en el puesto nº 56 de la lista FORBES de mayores millonarios del mundo con una fortuna estimada en 7000 millones de dólares.

 

 

Steve Job

https://economipedia.com/wp-content/uploads/2017/09/Steve-Jobs-biograf%C3%ADa.jpg

Steve Paul Jobs (San Francisco, 1955 – Palo Alto, California, 2011) fue un destacado informático y empresario estadounidense. Creador  del primer ordenador personal y fundador de Apple Computer, una empresa innovadora en el sector de la informática.

Se caracterizó por tener ideas visionarias en el campo de los ordenadores personales, la telefonía móvil y la música digital. Revolucionó el sector durante más de tres décadas a través de sus productos.

Historia de Steve Jobs

Fue entregado en adopción al matrimonio formado por Paul y Clara Jobs (maquinista ferroviario y ama de casa, respectivamente). Sus padres biológicos fueron dos estudiantes que no disponían de medios para poder hacerse cargo.

Desde niño, residió en la ciudad californiana de Mountain View, que se caracteriza por ser un importante centro de la industria electrónica estadounidense. Todo ello influyó Steve Jobs a la hora de decantarse por un futuro profesional relacionado con el sector.

Tenía solo doce años cuando se unió al Hewlett-Packard Explorer Club, asociación juvenil en la que los ingenieros de la compañía Hewlett-Packard enseñaban a niños y jóvenes las últimas creaciones en el terreno de la informática.

Estudió en el Instituto Homestead de Mountain View y posteriormente Steve Jobs ingresó en la Reed College, una universidad situada en Portland (Oregón), pero abandonó los estudios universitarios un semestre más tarde.

En aquella época coqueteó con las drogas y se interesó por asignaturas como filosofía, llegando a viajar a la India en la búsqueda de un sentido espiritual.

A su vuelta y tras unas prácticas en la empresa Hewlett-Packard en Palo Alto, en 1974 Jobs fue contratado como diseñador por Atari, compañía pionera de la por entonces naciente industria de los videojuegos.

 

El nacimiento de Apple

En aquella época se convirtió en socio del ingeniero Stephen Wozniak. Comenzó a fijarse en el potencial Jobs del ordenador doméstico en el que trabajaba su amigo y en el garaje crearon su primera oficina.Biografia de Steve Jobs

Pusieron en marcha una placa base y luego un ordenador completo, el Apple I, considerado el primer ordenador personal de la historia. En 1976, con el dinero obtenido de la venta de su furgoneta Volkswagen, fundaron la empresa Apple Computer, con sede en el garaje de la familia de SteveJobs.

Eligió el nombre Apple como un homenaje a su fruta favorita, la manzana.

A partir de entonces crearon diferentes versiones de Apple, siendo más potentes que su antecesor. En el año 1985 decidieron poner punto y final a su colaboración. Ya que Stephen Wozniak quedó relegado a un segundo plano tras un accidente, aunque se rumorea que fue debido al carácter complicado de Steve Jobs.

El resultado de ambos conflictos fue que Wozniak se marchó de Apple en 1985. Ese mismo año fueron despedidos mil doscientos empleados a raíz de una amplia reestructuración en la empresa. Jobs se vio forzado a dimitir. Pero esto no le impidió volver a emprender en solitario una nueva andadura empresarial.

 

Steve Jobs en NeXT Computer y Pixar

Fundó una nueva compañía informática, NeXT Computer en el año 1985. A continuación, compró al director cinematográfico estadounidense George Lucas, por diez millones de dólares, la división de animación de la productora del cineasta, Lucasfilm Limited.Steve Jobs

En 1986 nacieron los estudios de animación Pixar, centrados en la producción por ordenador de películas de dibujos animados. Steve Jobs participó activamente en la creación de la película «Toy Story».

En 1989, NeXT Computer lanzó su primer ordenador, repleto de funciones, pero que no resultó rentable por su elevado precio y su incompatibilidad con la mayoría de los sistemas existentes en el mercado. Steve Jobs

cerró la división de ordenadores en 1993. 


Su vuelta a Apple

En 1996 Apple decidió comprar NeXT Computer. Suponía la vuelta de Steve Jobs a la empresa fundada por él con un cargo de asesor interino (por el que Jobs, voluntariamente, no recibía ningún salario).

Nueve meses después, la dimisión del presidente de Apple provocó que Steve Jobs volviese a la presidencia.  En agosto de 1997, Jobs anunció un acuerdo con la corporación rival, Microsoft, que decidió invertir 150 millones de dólares en Apple. Las dos compañías se necesitaban y se complementaban, pues Microsoft era el principal fabricante de programas para Macintosh, y Apple uno de los principales testigos en el juicio antimonopolio que la justicia norteamericana había incoado contra la empresa de Bill Gates.Quién fue Steve Jobs, el creador de la marca que desbancó a Coca ...

En 1998, volvió a revolucionar el mercado informático con el lanzamiento del iMac, un ordenador compacto integrado en el monitor, que además de su espectacular diseño vanguardista estaba preparado para navegar por Internet. Su éxito de ventas colocó a Apple entre los cinco mayores fabricantes de ordenadores personales de Estados Unidos y acarreó una revalorización del 50% de las acciones de la compañía.

Nuevas versiones del iMac, con mayor potencia y cada vez más sofisticadas prestaciones seguirían apareciendo en los años siguientes revolucionando de manera constante el mercado.

Comenzó a desplegar su potencial de creatividad  inventiva en otros ámbitos, conjugando como siempre había hecho las novedosas funcionalidades con la máxima simplicidad de uso y elegantes diseños minimalistas. El primero fue la música digital: en 2001 desembarcó en el sector musical con un reproductor de audio de bolsillo, el iPod, y dos años después creó la tienda musical iTunes, que lideróla venta de música en línea.

En 2004, sus problemas de salud lo obligaron a apartarse de su trabajo ya que fue tratado de un supuesto cáncer de páncreas.

Posteriormente, en el año 2007 presentó el iPhone, primero de la familia de teléfonos inteligentes de alta gama desarrollados por Apple.

Las novedosas prestaciones del iPhone fueron pronto imitadas por otras empresas. 

 


10 frases inspiradoras de Steve Jobs - Infobae

 

¿De qué murió Steve Jobs?

En 2009, se sometió a un trasplante de hígado y Steve Jobs delegó la mayor parte de sus responsabilidades en Timothy Cook. Aun así, todavía en 2010 sorprendió al mundo con el iPad, un híbrido de tableta y teléfono móvil sin necesidad de teclado ni ratón. Steve Jobs presentó la segunda versión, el iPad 2, en marzo de 2011, en la que sería una de sus últimas apariciones en público.

Algunas informaciones reveladas con posterioridad, aunque no son totalmente fiables, indican que en realidad Jobs no falleció por un cáncer de páncreas. El fundador de Apple, habría muerto, según estas investigaciones, de un sarcoma de Kaposi cuyos efectos, en pacientes de VIH, son muy parecidos a los de un cáncer de páncreas. Es decir, según esta teoría Steve Jobs padecía VIH y al padecer también este tipo de sarcoma se agravó su estado de salud. Con todo, esta teoría no está confirmada al ciento por cien.

El 5 de octubre de 2011, a los 56 años de edad, falleció en su casa de Palo Alto.

 

Quién fue el "coach" de Silicon Valley que formó a Steve Jobs como ...


Comentarios