Historia de los Sistemas Operativos

Historia de los Sistemas Operativos

Historia de los Sistemas Operativos

Saga de Windows

Saga de Windows

La historia de la informática no puede ser escrita si no son mencionados los programas o softwares que como un torrente en líneas de código e instrucciones le dan vida al cuerpo o hardware de cualquier dispositivo electrónico en nuestros días. Escribir, además, sobre los sistemas operativos, la llamada alma de la computadora, es por otra parte, muy difícil. Ahora, a ciencia cierta, ¿qué son los sistemas operativos ?
Los sistemas operativos o SO, como se les conoce, no son más que programas que luego de ser cargados en una computadora por el conjunto de códigos de carga, una rutina conocida como BOOT, administran todos los demás programas (aplicaciones) que corren en la máquina. Las aplicaciones a su vez interactúan con el SO mediante llamadas de servicios definidas bajo el nombre de API (aplication program interface). A su vez el propio usuario interactúa directamente con el SO mediante la interfaz de usuario, ya sea ésta por comandos o gráfica (GUI).
Entre las tareas que realiza un SO tenemos:
– Si es un sistema multitarea: asignar y controlar los recursos del sistema, definir qué aplicación y en qué orden deben ser ejecutadas.
– Manejar la memoria del sistema que comparten las múltiples aplicaciones.
– Maneja los sistemas de entrada y salida, incluidos discos duros, impresoras y todo tipo de puertos.
– Envío de mensajes de estado a las aplicaciones, al administrador de sistema o al propio usuario, sobre cualquier error o información necesaria para el trabajo estable y uniforme del sistema.
– Asume tareas delegadas de las propias aplicaciones, como impresión en background y procesamiento por lotes, con el fin de que éstas ganen en eficiencia y tiempo.
– Administra, de existir, el procesamiento en paralelo.
El lector observador se percatará de que el diseño de un SO está estrechamente vinculado al hardware donde reside y a su vez determinará la forma en que se programen las aplicaciones para dicho hardware. En la historia de la computación han existido muchos SO, al inicio todos atados a cada máquina en la que corrían: la marca tal lleva el programa tal, la marca más cual, el programa más cual. Posteriormente fueron asociados a cada plataforma y finalmente se hicieron multiplataformas. Registrando en Internet un poco de aquí y otro de allá, rescatamos para esta edición la historia de tres de los Sistemas Operativos más conocidos.
Historia del UNIX
“…el número de instalaciones de UNIX ha crecido a 10, con tendencia al aumento…”
Dennis Rictchie y Ken Thompson, junio de 1972
“…el resultado fue un sistema llamado UNICS (Uniplexed Information and Computing Service)…nadie recuerda de quien fue la idea de cambiar las siglas a UNIX…”
Tomado de “A brief look at the eraly History”
Después de tres décadas de haber escapado de los laboratorios Bell, el UNIX sigue siendo uno de los SO más potentes, versátiles y flexibles en el mundo de la computación. Su popularidad se debe a muchos factores incluidas su portabilidad y habilidad de correr eficientemente en una inmensa variedad de máquinas computadoras. Descrito frecuentemente como un sistema “simple, potente y elegante” el UNIX es hoy el corazón que late en el seno de millones de aplicaciones de telefonía fija y móvil, de millones de servidores en universidades, centros académicos, grandes, medianas y pequeñas empresas, el SO cuyo desarrollo viene de la mano del de Internet y que alberga a millones de servidores y aplicaciones de la red de redes. Sin UNIX, no cabe duda, el mundo de la informática hubiera sido otro.

Del MULTICS al UNICS
El origen del UNIX se remonta a los finales del año 1969, al renacer de las cenizas de un fracasado intento en los Laboratorios Bell de producir un SO multitarea. En esos tiempos remotos los sistemas eran desarrollados para computadoras específicas, por lo que eran necesarios, incluso, intérpretes en una misma compañía para trabajar programas iguales de una computadora a otra. MULTICS fue el resultado del esfuerzo conjunto de un grupo de investigadores de los Laboratorios Bell y la General Electrics, que si bien fue funcional, económicamente era inviable. “A pesar de que MULTICS no podía manejar muchos usuarios simultáneos, al menos nos era de utilidad a nosotros, aunque a costos exorbitantes”, explicaría luego Dennis Ritchie, uno de sus fundadores.
La frustración se llenó de esperanza cuando un grupo escindido del proyecto MULTICS no se dio por vencido. En ese mismo año, el grupo formado por Ken Thompson, Dennis Ritchie, Doug McIlroy y J.F Osanna continuó en la búsqueda del santo grial. Los primeros intentos fueron de nuevo un fracaso: propuestas excesivamente complicadas, soluciones muy caras y sin una línea coherente de trabajo, hicieron que los directivos de Bell rechazaran una yotra vez los trabajos presentados por el grupo. Anótese adicionalmente que el costo de una computadora para la época era no menor de 60 000 USD.
Como todo mito que rodea a un producto genial, el UNIX tiene el suyo propio. En la primavera de 1969, Thompson, Ritchie y Rudd Canaday, cofundador de Sun-Microsystems, intercambiaban y filosofaban sobre cómo debiera ser un SO de una computadora. Después de una larga tormenta de ideas, Canaday tomó el teléfono y llamó a la Bell para dictar las notas que había tomado. Acrónimos como “inode”y “eyen” picoteados entre sus notas, fueron la base del UNIX y el primer documento de trabajo, a decir de Thompsom, para desarrollar el sistema.

Un Sistema Operativo para una PDP-7
Entre canto y canto, Thompson en su tiempo libre desarrolló un pequeño juego llamado “Viaje Espacial”, el cual simulaba el movimiento de los planetas en el sistema solar y de una nave manejada en ese escenario intergaláctico por comandos de consola. El juego fue escrito para MULTICS y luego pasado por FORTRAN todo ello corriendo sobre una computadora GE 635. “El costo de 75 USD de tiempo de máquina de la 635 y la mala calidad de la consola, hicieron que Thompson buscar portar el juego a una poco usada PDP-7 (Programmed Data Processor) de DEC con un terminal excelente. El juego, escrito en ensamblador, era portado usando cinta de papel de la GE 635 a la PDP-7. Este mecanismo preparó el escenario para que la PDP-7 sirviera de hospedera al sistema de ficheros cuyas notas habían sido escritas en aquella primavera del 69. En el verano de ese mismo año, Thompson y Ritchie empezaron a implementar el sistema operativo, llamado “sistema de tiza” ya que éste tomaba forma luego de numerosas sesiones de pizarra entre ambos investigadores. “Destiné una semana de trabajo para cada módulo: el sistema operativo, el editor, el shell y el ensamblador”, diría Thompsom. Primero los requerimientos del sistema, en particular los procesos, luego un pequeño grupo de herramientas del sistema para copiar, imprimir, borrar, etc. Trabajado sobre GECOS el sistema de la GE635 y luego transportado a la PDP7 el nuevo SO estaba casi listo. Una vez completado el ensamblador, el sistema podía soportarse a sí mismo. Había nacido el UNIX.

Las primeras aplicaciones para UNIX
Pronto se hizo evidente que la PDP-7 no ofrecía poder de cómputo suficiente y quedaría obsoleta en breve. El grupo propuso a los Laboratorios adquirir una PDP-11. Con una idea más clara y un embrión por desarrollar, así como el apoyo de Doug McIlroy y Lee MacMahom, jefes de departamentos en Bell. Esta vez los directivos aceptaron. Durante la espera del arribo del nuevo equipo, el trabajo sobre la PDP-7 no se detuvo, demostrando con creces la utilidad del nuevo UNIX. Así las primeras aplicaciones, un embrollo de los Laboratorios Bell con el Departamento de Patentes no se hizo esperar. Después de largas y trabajosas sesiones, el resultado fue milagroso: no sólo el Departamento de Patentes adoptó el UNIX, sino que la credibilidad del grupo creció y se hizo notable el apoyo e interés del Laboratorio en traer la PDP-11.
Luego de estar esta primera versión escrita en ensamblador, la siguiente tarea de Thompson fue escribirla en un lenguaje de alto nivel. En 1971 intenta trabajar con FORTRAN en la vieja PDP-7, pero se rindió el mismo primer día. Después escribió un lenguaje muy sencillo que llamó B, que aunque funcional tendría que enfrentar algunos problemas de concepción. Ritchie transformó el B para la PDP-11, al introducirle algunas mejoras, lo denominó NB e hizo un compilador para él. Así surgió el lenguaje C, que si bien es cierto pertenece a otra historia, constituyó el lenguaje de alto nivel en el que se reescribió el UNIX por primera vez en el año 1972.

Concatenando procesos
El otro paso importante, y que más que una solución puntual constituyó toda una filosofía en el diseño del software, fue llevar al nuevo SO el concepto de la concatenación de procesos, el llamado pipes concept. La habilidad de encadenar en una misma línea de comandos varios procesos fue una innovación que tiene su origen en una idea de McIlroy, cuyas conferencias sobre el uso de macros y flujos de datos para producir un determinado resultado ya eran conocidas.
Mientras Thompson y Ritchie pasaban horas de su tiempo frente a una pizarra diseñando el sistema de ficheros, McIlroy llevaba otro tanto tratando de interconectar entre sí los procesos y construir una sintaxis en el lenguaje para ello. “…es muy fácil decir who into cat into grep, pero está todo el asunto este de los parámetros laterales que estos comandos tienen…” acota McIlroy. Aunque sin concretarla, la idea estuvo presente a lo largo del período del 70 al 72. Una noche, luego de presentarle propuesta tras propuesta a Thompson éste se llevó un prototipo a casa y al día siguiente estaba listo. “Ken puso la concatenación de comandos en el UNIX, las notaciones en el shell del usuario, todo ello en una sola noche”, diría luego McIlroy maravillado.

Saltando los muros de Bell Labs.
No fue hasta tiempo después que el UNIX saltaría los muros de la Bell para insertarse en el mundo. Durante un semestre sabático para Ken Thompson entre 1976 y 1977, éste funge como profesor invitado en el Departamento de Ciencias de la Computación de la Universidad californiana de Berkeley. Lo que por supuesto impartió fue precisamente el sistema UNIX, cuya versión 6 desarrolló durante ese tiempo. Enseguida, el mismo fue recibido con mucho éxito por estudiantes y estudiados y se fue regando por toda la comunidad académica. Una vez de vuelta a los Laboratorios la versión 6 ya había sido enriquecida en la propia universidad, lo que dio origen a lo que luego se conoció como Berkeley Software Distribution (BSD) versión 4.2, comprada por muchas otras universidades. La universidad de Berkeley jugó un papel importante en el desarrollo y extensión del UNIX, cuyas licencias a importantes instituciones académicas, de negocios y militares como el DARPA propiciaron un acelerado trabajo en protocolos como el TCP/IP y el nacimiento de Internet.
La entrada al mundo comercial no fue más que una evolución lógica, luego del paso de los primeros egresados del mundo universitario criados bajo el manto del UNIX, al sector empresarial. Lo que hizo del SO un programa popular fue su habilidad de multitarea, señoreando por aquel entonces el mundo de los mini y los mainframes, su portabilidad por medio de los distintos fabricantes de computadoras y su capacidad de correo electrónico. Una vez llegado a este punto todo estaba listo para la aparición de las innumerables versiones del sistema, las batallas legales para las licencias, la producción de estaciones de trabajo para UNIX por parte de IBM, Sun, NCR y HP y con ellas nuevas versiones comerciales, y así sucesivamente en espiral ascendente.
Mucho del progreso de la computación en el último cuarto del siglo pasado está íntimamente ligado a la influencia que el UNIX tuvo en la industria de la computación. El mismo estaba embebido de ideas visionarias, todo un llamado a la abertura y generalidad entre sistemas, toda una fuerza, que aún mueve el desarrollo de la informática moderna. Como diría uno de sus creadores, ” …a 30 años de su nacimiento, el UNIX sigue siendo un gran fenómeno”.

Linux, la otra cara
“…Yo realmente no sigo mucho lo que hacen los otros sistemas operativos. Yo no compito, sólo me preocupo con hacer de Linux un producto cada vez mejor que sí mismo, no respecto a otros. Y honestamente no veo nada interesante desde el punto de vista técnico, tampoco (en FreeBSD 5.0 y Windows XP)”
Linus Torvalds, 10 de octubre del 2001, OSNews.

La fascinación de los medios por Linux viene dada, entre otras cosas, por ser un proyecto de ingeniería de software distribuido a escala global, esfuerzo mancomunado de más de 3 000 desarrolladores y un sinnúmero de colaboradores distribuidos en más de 90 países. El rango de participantes en la programación del Linux se ha estimado desde unos cuantos cientos hasta más de 40 000, ya sea ofreciendo código, sugiriendo mejoras, facilitando comentarios o describiendo y enriqueciendo manuales. De hecho, se cuenta que el mayor soporte técnico jamás diseñado de manera espontánea y gratuita pertenece a este SO. Escribir la historia de UNIX sin mencionar a Linux es pecado, realmente merece todo un capítulo propio. Salido de una raíz común, hoy el Linux comparte un por ciento no despreciable del mercado de los SO, con un crecimiento que ha llegado a preocupar a gigantes como Microsoft.
Su versión 1.0, salida en marzo de 1994 ofreció básicamente las mismas facilidades que el UNIX,
incluyendo soporte multitarea, tratamiento de memoria virtual y soporte TCP/IP. Estaba constituido por unas 175 000 líneas de código. Ya su versión 2.0, de junio de 1996, ofrecía procesamiento de 64 bits, multiprocesamiento en paralelo y soporte avanzado de redes. El número de líneas de código se había triplicado: 780 000, y en la versión de julio de 1998 la cifra sobrepasaba el millón y medio, 17% específicos de la arquitectura del SO, 54% en manipuladores y el 29% el núcleo del kernel y el sistema de ficheros. Ello ha sido posible por el simple hecho de que Linux es más que un SO: es una fuente inagotable en permanente evolución por miles de programadores a escala mundial.
¿Cómo surgió? ¿A qué se debe el fenómeno de la espontaneidad en su creación y desarrollo? Adentrémonos, brevemente en su historia.
En octubre de 1991 un estudiante graduado de Ciencias de la Computación en la Universidad de Helsinki, llamado Linus Torvalds, anuncia en Internet que había escrito una versión libre de un sistema MINIX (una variante de UNÍX) para una computadora con procesador Intel 386 y lo dejaba disponible para todo aquel que estuviera interesado. ¿La causa? El MINIX fue una versión simplificada de UNIX escrito y mantenido durante mucho tiempo como herramienta de estudio en una escuela europea por un profesor de Ciencias de la Computación llamado Andrew Tanenbaum. El MINIX era ampliamente utilizado como recurso en clases de Computación, aun a costo de su licencia ($79.00) que limitaba su redistribución. Luego de enamorar a los estudiantes con el software, éstos se llenaban de deseos de realizar mejoras y extensiones, nunca aprobadas por Tanenbaum.
Torvalds, uno de estos alumnos frustrados, decidió realizar su propia versión de MINIX y dejar libre su código fuente para ser copiado por cualquiera y así saciar la sed de desarrollo de aquellos que se veían impedidos de hacerlo.
“¿Se lamenta de los días del MINIX-1.1, cuando los hombres eran hombres y escribían sus propios manipuladores de dispositivos? ¿Está usted sin un proyecto interesante y muriéndose de deseos por un SO que pueda modificar a su antojo? ¿Se siente frustrado cuando encuentra que todo trabaja bien en su MINIX?… Entonces este mensaje puede ser para usted :-)”, escribiría en un foro de discusión por Internet. Adicionalmente, el mensaje estimulaba a todo aquel que se sintiera capaz de adicionar nuevas funciones, mejoras, sugerencias y manuales de ayuda, con la única condición de que el resultado fuera a su vez distribuido libremente. La piedra había echado a rodar montaña abajo. En los subsiguientes 30 meses se desarrollarían hasta 90 versiones del nuevo SO, finalizando en 1994 con la definitiva, llamándola Linux versión 1.0.
Realmente varias condiciones adicionales propiciaron la buena acogida que tuvo la decisión de Torvalds, pero dos de ellas de especial impacto: el status legal y social del llamado código abierto, open source, una vía para intercambiar software de manera libre, e Internet. El intercambio de códigos fue una práctica bastante común en los albores de la computación en el sector académico. Laboratorios como el MIT Artificial Intelligence Laboratory, universidades como Standford y Carnegie Mellon solían practicar una política de código abierto. Debido a que las máquinas computadoras eran muy limitadas en aquel entonces, las personas solían dejar en éstas el software desarrollado para que otros pudieran admirar el trabajo y sugerir mejoras. El propio UNIX de Thompson y Ritchie, que legalmente pertenecía a AT&T, pero que por restricciones de la ley anti trust de ese momento, le impedía comercializar, fue distribuido a la comunidad académica por una tarifa nominal, sin soporte oficial al programa. Ello acostumbró a los programadores y usuarios del sistema a intercambiar los errores y soluciones, así como las mejoras. La llegada del protocolo UUCP (Unix to Unix Copy) permitió la transferencia de ficheros y datos con el uso de una línea telefónica e introdujo el soporte de transmisión como mecanismo natural para intercambiar información entre los usuarios del sistema. Se crearon los primeros foros y apareció Usenet. Las innovaciones de diseño y características propias del UNIX como sistema, a su vez, propiciaron la cultura del intercambio.
A medida que el UNIX tomaba fuerza y seguía atado a las nuevas computadoras de diferentes fabricantes, la cultura del libre intercambio se vio amenazada entre su comunidad. Surge así, por idea de Richard Sallman, el proyecto GNU en 1984 para crear sistemas operativos libres que hicieran posible la distribución yrabajo colaborativo entre diferentes desarrolladores. Para evitar que el mecanismo fuese deformado se instituyó lo que Sallman llamó “Copyleft”: usted puede distribuir, copiar, modificar el software, obligando a su vez a las derivaciones de éste a cumplir con los mismos requisitos. El marco legal y social para la distribución y copia gratuita estaba instituido. Huelga mencionar las facilidades que aportó Internet cuando Torvalds decidió hacer su llamado: ya no era sólo un grupo privilegiado con acceso a máquinas computadoras grandes en laboratorios estratégicos o grandes universidades los que podían colaborar con un código de programa. Internet elevó el intercambio a un marco global.
Si bien Torvalds como propósito nunca persiguió encabezar un proyecto de programación distributiva a escala mundial, sus habilidades como líder de proyecto y excelente programador fueron determinantes en el éxito de Linux. Más allá de sus cualidades como programador, su mayor contribución fueron sus habilidades en el diseño de una arquitectura modular y portable para el kernel. Por tanto, al disponer de un código base único para todo tipo de plataforma, desde Intel hasta Motorola, que permitía soportar de manera simultánea varias ramas según el tipo de arquitectura de computadora que se tratase, incrementó considerablemente la portabilidad del Linux. Por otro lado, la modularidad del sistema minimizaba la comunicación entre las distintas componentes del kernel y por ende hacía posible el trabajo en paralelo, al disminuir la necesidad de un trabajo coordinado entre sus diseñadores.
Otra decisión brillante de Torvalds fue establecer una nomenclatura paralela para cada tipo de versión del SO. Para ello se separaron en versiones pares o impares según la estabilidad y seguridad de la misma o la inclusión de código experimental o alguna nueva rutina en fase de estudio. Ello hacía posible disponer de dos tipos de colaboradores: los que buscaban una versión estable del programa o los que preferían probar con nuevas estructuras, innovar y llevar sus sistemas hasta los extremos. Ello enriqueció al Linux extraordinariamente.
Es interesante conocer, además, que los programadores suelen escribir código para Linux en aras de resolver sus propios problemas. El mismo Torvalds buscaba un SO para su 386 y su anunció explícitamente invitaba a “modificarlo según sus necesidades “. Así, cuando la comunidad de programadores aceptó el reto de Torvalds, cada cual escribió sus propios manipuladores de dispositivos. Por ejemplo, un programador alemán diseñó el driver para teclado en su idioma y éste fue incluido en la versión de diciembre del 91. Hasta nuestros días se mantiene la misma filosofía: cada cual trabaja en las áreas que le interesa.
He aquí la historia. Hoy Linux es una alternativa para muchos o un indispensable para otros. Su importancia no puede ser relegada: los RED HAT, los SUSE, los Mandrake pueblan miles de servidores por todo el planeta. ¿Lo mejor? Pues que Linus Torvalds sigue enviando mensajes a su lista, del tipo: “…mi prioridad personal no es este tipo de comportamiento, por tanto sería bueno que alguien implementara esta opción…”.

Historia de Microsoft Windows
“…Microsoft siempre ha sido una compañía optimista, que cree que el software puede crear herramientas que realmente no tengan ninguna atadura en términos de lo que es posible…”
Bill Gates, Future Forum, septiembre del 2001

De los tantos sistemas operativos que se han hecho famosos a lo largo del desarrollo de la informática en el ocaso del siglo pasado, sin duda, ningún otro posee la peculiaridad del Windows de Microsoft.
Rodeado por todo tipo de mito acerca de su emprendedor y ambicioso creador, solidificado sobre la base de un sistema DOS, cuya irrupción en la primera PC tenía más de suerte que de propósito, amparado por disfrutar de un férreo y despiadado control de mercado es hoy por hoy, odiado o amado, el sistema operativo más extendido del planeta.
Al buscar su historia en la red, no encontramos anécdotas de noches de desvelo, de errores devenidos éxitos, de genios convertidos en héroes de la noche a la mañana. En cambio, sí conocimos de oportunidades, visión de futuro, monopolios y juicios. La historia de Windows tiene mezclado un poco de Bill Gates, de MSDOS y de la propia compañía Microsoft.

Fundación
La Compañía fue fundada en 1975 por William H. Gates III y Paul Allen. Ambos se habían conocido durante su época de estudiantes por su afición común a programar con una computadora PDP-10 de Digital Equipment Corporation. Eran años en que la revista Popular Electronics dedicaba su portada a la Altair 8800, para muchos la primera computadora personal (PC). El artículo de dicha revista animó a Gates y Allen a desarrollar la primera versión del lenguaje de programación BASIC para el equipo Altair. Con un ojo para los negocios fuera de lo común, el dúo le compró la licencia de este software a Micro Instrumentation and Telemetry Systems (MITS), la empresa fabricante del Altair, y fundaron Microsoft (originalmente Micro-soft) en Albuquerque, Nuevo México. Su idea: desarrollar versiones de BASIC para otras compañías del sector. Apple Computer, fabricante del equipo Apple II; Commodore, fabricante del PET, y Tandy Corporation, fabricante del equipo Radio Shack TRS-80, todas compañías creadas por aquel entonces, fueron los primeros clientes de Microsoft. En 1977 Microsoft lanzó al mercado su segundo producto: Microsoft FORTRAN, otro lenguaje de programación, y pronto sacó versiones del lenguaje BASIC para los microprocesadores 8080 y 8086.

MS-DOS
En 1979, Gates y Allen trasladaron la compañía a Bellevue, Washington, muy cerca de Seattle, la ciudad donde ambos nacieron (el traslado a Redmond, su sede de hoy, no se produciría hasta 1986). En 1980, IBM contrató a Microsoft para escribir elistema operativo del IBM PC que saldría al mercado al año siguiente. Presionada por el poco tiempo disponible, Microsoft compró QDOS (Quick and Dirty Operating System, como se le solía llamar entonces) a Tim Paterson, un programador de Seattle, por 50 000 dólares, cambiándole el nombre a MS-DOS. El contrato firmado con IBM permitía a Microsoft vender este SO a otras compañías. La mesa estaba servida. La arquitectura abierta de la primera PC y los artilugios legales permitieron la extensión de la arquitectura X86 de Intel y con ella de la PC fuera del marco de IBM. Fue la época del florecimiento de los clones y el surgimiento de algunas compañías que luego serían todo un estandarte, como la fusionada Compaq. En 1984, Microsoft había otorgado licencias de MS-DOS a 200 fabricantes de equipos informáticos y así este SO se convirtió en el más utilizado para PCs, lo que permitió a Microsoft crecer vertiginosamente en la década de 1980.
¿Por qué el MS-DOS quedó estigmatizado con las sucesivas generaciones de PCs hasta no hace mucho?
La respuesta a esta pregunta tiene un poco que ver con la esencia misma del origen de las computadoras personales. Cuando IBM fabricó la PC hizo que el usuario antes de cargar algún SO, realizara lo que se llamó el POST (Power On Self Test), que determinaba los dispositivos disponibles (teclado, vídeo, discos, etc.) y luego buscaba un disco de arranque. Estas funciones eran realizadas por un conjunto de instrucciones incorporadas en la máquina mediante una ROM. Luego quedó escrito que siempre hubiera algún tipo de software en el sistema aún sin ser cargado el SO. Entre las rutinas del POST tenemos las de revisión del sistema, inicialización y prueba de teclado, habilitación de vídeo, chequeo de la memoria y la rutina de inicialización que preparaba a la máquina para ejecutar DOS. Después que las pruebas de arranque han sido ejecutadas y el sistema está cargado, la ROM aún sigue siendo importante debido a que contiene el soporte básico de entrada y salida (BIOS). La BIOS provee un conjunto de rutinas que el SO o los programas de aplicación pueden llamar para manipular el monitor, teclado, discos duros, discos flexibles, puertos COM o impresoras.
El trato de IBM con Microsoft tenía entre otras condiciones una particularidad interesante: la administración directa de las tarjetas adaptadoras podría ser manejada sólo por programas que IBM proveía con la ROM del computador. DOS sería escrito para utilizar estos servicios. De esta manera, si IBM decidía cambiar el hardware, éste podía embarcar nuevos modelos de chips con cambios en la BIOS y no requería que Microsoft cambiara el SO. Ello posibilitó, junto con la clonación de la arquitectura de IBM incluido el BIOS, que el DOS se extendiera por el universo, aun cuando el Gigante Azul rompiera su alianza con Microsoft, en 1991, para producir su propio SO. Microsoft había hecho un trabajo estratégico brillante e IBM había perdido la supremacía de las computadoras para siempre.
Realmente el núcleo del DOS estaba contenido en un par de archivos ocultos llamados IO.SYS y MSDOS.SYS en las versiones de DOS realizadas por Microsoft, e IBMBIO.SYS e IBMDOS.SYS, para las versiones de DOS hechas por IBM bajo licencia Microsoft. Los servicios de DOS eran solicitados cuando una aplicación llamaba a la interrupción 21 (INT 21) reservada para estos fines. Esta buscaba un punto de entrada del administrador de servicios de DOS en una tabla y saltaba a la rutina en el módulo MSDOS.SYS. En otros SO, la aplicación debía realizar una llamada al sistema (system call) para requerir servicios, como, por ejemplo, en UNIX.
Otro rasgo distintivo del MS-DOS fue la forma en el manejo de la estructura de ficheros: la FAT (File Allocation Table) o Tabla de Asignación de Archivos, que dividía al disco en subdirectorios y archivos. Criticados por muchos como un sistema poco seguro y no eficiente, la herencia sobrevivió por mucho tiempo y no fue hasta época reciente que Microsoft decidió reemplazarlo por un sistema más robusto, el NTFS que destinó a la gama alta de sus SO: el Windows NT.

Windows
Paralelamente, Microsoft hizo su primera incursión en lo que luego se llamaría Microsoft Windows en el año 1981 con el llamado Interface Manager, en tiempos en que las interfaces gráficas de usuario, GUI, eran una quimera de lujo para muchos, en tanto la computación estaba suscrita al área geográfica de los centros académicos, grandes instituciones y empresas. Más que un SO, se trataba en realidad de una interfaz montada sobre su estrenado DOS. Aunque los primeros prototipos usaban una interfaz similar a una de las aplicaciones estrellas de la Compañía en aquel entonces, el Multiplan, luego ésta fue cambiada por menúes pulldown y cajas de diálogo, similares a las usadas en el programa Xerox Star del mencionado fabricante. Al sentir la presión de programas similares en aquel entonces (recordemos que más que un SO, Windows nació como una interfaz gráfica entre éste y el usuario), Microsoft anuncia oficialmente Windows a finales del año 1983. En ese momento, muchas compañías trabajan la línea de las interfaces gráficas, entre ellas Apple, reconocida casi por todos como la primera, DESQ de Quraterdeck, Amiga Workbech, NEXTstep, etc. Windows prometía una interfaz GUI de fácil uso, soporte multitarea y gráfico. Siguiendo el rito de los anuncio-aplazamientos de Microsoft, Windows 1.0 no llegó a los estantes de las tiendas hasta noviembre de 1985, disponiendo de un soporte de aplicaciones pobres y un nivel de ventas pírrico. El paquete inicial de Windows 1.0 incluía: MS-DOS Ejecutivo, Calendario, Tarjetero (¿alguien realmente usó esto alguna vez?), el Notepad, Terminal, Calculadora, Reloj, Panel de Control, el editor PIF (Program Information File), un spooler de impresión, el Clipboard, así como el Windows Write y Windows Paint.
En los años siguientes, si bien la computadora personal, como concepto ya se había establecido y servía de alternativa válida a las mini, sobre todo en el entorno institucional y empresarial, aún el poder de cómputo limitado y la gran variedad de fabricantes limitaron laexplosión de Windows como SO, debido al despliegue universal que con el MS-DOS, la Compañía había logrado establecer. Windows /286 y Windows/386, renombrados como Windows 2.0 terminan la saga en el otoño de 1987, al ofrecer algunas mejoras de uso, adicionar iconos y permitir la superposición de ventanas, lo que propició un marco mucho más apropiado para la co-ubicación de aplicaciones de mayor nivel como el Excel, Word, Corel Draw, Ami y PageMakers, etc. Una notoriedad del Windows /386 lo constituyó el hecho de poder correr aplicaciones en modo extendido y múltiples programas DOS de manera simultánea.
El Windows 3.0, que aparece en mayo de 1990, constituyó un cambio radical del ambiente Windows hasta entonces. Su habilidad de direccionar espacios de memorias por encima de los 640 k y una interfaz de usuario mucho más potente propiciaron que los productores se estimularan con la producción de aplicaciones para el nuevo programa. Ello, unido a la fortaleza dominante del MS-DOS como SO llevado de la mano de la gula insaciable del gigante corporativo, hizo que el Windows 3.0 se vislumbrara como el primer SO gráfico (siempre con el MS-DOS bajo su estructura) marcado para dominar el mercado de las PCs en el futuro inmediato. Windows 3.0 fue un buen producto, desde el punto de vista de las ventas: diez millones de copias. Todo un récord.
Dos años después llegaría la saga del Windows 3.1 y 3.11, así como su variante para trabajo en grupo. Con éste se hizo patente el traslado de la mayoría de los usuarios del ambiente de texto que ofrecía el MS-DOS hacia el ambiente gráfico de la nueva propuesta, olvidándonos todos paulatinamente del Copy A:\ *.* para sustituirlo por el COPY AND PASTE. Las primeras aplicaciones “adquiridas y/o desplazadas” por Microsoft ofrecidas como un todo único, el ambiente de RED peer to peer, los sistemas de upgrade de una versión a otra y el tratamiento diferenciado para los revendedores y los fabricantes OEM, caracterizaron los movimientos de Microsoft para afianzar el mercado de su SO insignia. En el caso de la versión para trabajo en grupo, Microsoft integró por primera vez su SO con un paquete de tratamiento para redes, lo que permitió, sobre un protocolo propio, el compartir ficheros entre PCs (incluso corriendo DOS), compartir impresoras, sistema de correo electrónico y un planificador para trabajo en grupo. Sin embargo, lo realmente llamativo consistió en su plena integración con el ambiente Windows y con ello garantizar, independiente de la calidad del producto final, un seguro predominio.
Mientras tanto, IBM y Microsoft trabajaban para desarrollar un nuevo programa especialmente diseñado para el procesador de Intel 80286. De esa forma, la versión 1.0 de OS/2 es lanzada en 1988, época en que ya el 386 se hacía popular. Se hizo claro que el hardware estaba cambiando muy rápido con relación al desarrollo del software. De manera que ambas compañías decidieron que la OS/2 versión 2 sería un refinamiento evolutivo de sistemas previos, actualizado para las nuevas características de hardware del 386. Sin embargo, para la versión 3 se procedió a trabajar desde cero, basado todo sobre Nueva Tecnología. En un principio sería un SO para procesadores de Intel, pero portable a otros, como los ALPHA, de Digital, por aquel entonces muy famosos. Después de la ruptura con IBM, Microsoft le llamaría al SO: Windows NT. El OS/2 tras una existencia caótica bajo el pulso de IBM quedó en el olvido. Microsoft se percató que si bien tenía bajo control el mercado de los SO para las masas, se sentía desplazado por la comunidad UNIX al nivel de las grandes instituciones y empresas. El NT comenzó a tomar fuerza en sus planes.
Volviendo al Windows tradicional, el año 95 significó un nuevo vuelco en la línea de los SO de Microsoft. En agosto sale al mercado el controvertido Windows 95, un entorno multitarea con interfaz simplificada y con otras funciones mejoradas. A sólo siete semanas de su lanzamiento ya se habían vendido siete millones de copias. Es la época del despegue de Internet y el WWW, y su visualizador dominante: el Navigator de Netscape. Microsoft, en un error poco común de su timonel no se había dado cuenta que el futuro de las computadoras estaba precisamente en la red y que Internet significaría toda una revolución en la rama. El lanzamiento de Windows 95 estuvo acompañado de una serie de pasos que el Gigante dio en aras de remediar su equivocación y enderezar el rumbo. Además de “empotrar” su navegador y obligar a los fabricantes de PCs a tenerlo en cuenta, ese mismo año se crea The Microsoft Network y mediante su incursión acelerada en los medios masivos de comunicación, surge MSNBC, un año después. En ese momento, Microsoft pagó 425 millones de dólares por la adquisición de WebTV Networks, un fabricante de dispositivos de bajo costo para conectar televisiones a Internet e invirtió mil millones de dólares en Comcast Corporation, un operador estadounidense de televisión por cable, como parte de su política de extender la disponibilidad de conexiones de alta velocidad a Internet. Por último, para introducirse en el mercado de los asistentes personales y las computadoras de bolsillo, handheld devices, crea una nueva línea de su SO, el Windows CE, una especie de Windows en miniatura que ya en su versión 3.0 ha logrado una integración asombrosa con la plataforma e Internet.
Ahora, ¿qué significó realmente Windows 95? Bueno, en esencia cuando Microsoft lo anunció lo describió como un SO de 32 bits. En realidad, Windows 95 era un híbrido que mezclaba códigos de 16 y 32 bits. Poseía capacidad de multitarea y multihilo, un sofisticado sistema de ficheros y pleno soporte de red. Su lanzamiento se pregonaba con la desaparición del MS-DOS, aunque en verdad la crítica no lo perdonó, pues traía de fondo el viejo sistema DOS en su versión 7.0. Así Windows 95 tomaba el control inmediatamente después de la secuencia de arranque, para dar lugar a una interfaz totalmente mejorada y una filosofía de trabajo diferente.
Añádale la famosa promesa del “plug and play” y tendremos un timo de marketing bien montado. Claro, en realidad la solución si bien novedosa y prometedora, era una metamuy alta para Microsoft y los fabricantes de entonces. No sólo habría que garantizar la compatibilidad de un legado de dispositivos de una variedad incontable, en plena explosión y desarrollo de los periféricos en las PCs, sino que además habría que lidiar con todo un arco iris de fabricantes y sistemas, que poco a poco se organizarían e integrarían para sobrevivir sólo los más fuertes. Aún años después, el término plug and play sigue mostrando sorpresas con algunas configuraciones o dispositivos, pero aquellos primeros intentos felizmente quedaron atrás.
Una de las notas más contradictorias del nuevo SO fue la inclusión de un navegador para Internet, el Internet Explorer, como un utilitario más del sistema. Esto no era más que el resultado de una estrategia de mercado que Microsoft había aplicado desde sus inicios: comprar las licencias de lo mejor de la competencia para integrarla a su SO o desarrollar su propia versión y ofrecerla gratis como parte de su paquete completo, para desplazar al que no quisiera vender. Comenzó la guerra de los browsers, que finalmente ganaría el Explorer debido a la abismal ventaja que le ofrecía llegar de manera natural a la computadora con cada nueva instalación de Windows.
Como resultado, a finales de 1997 el Departamento de Justicia acusó a Microsoft de violar un acuerdo fechado en 1994 al obligar a los fabricantes de computadoras que instalaban Windows 95 a la inclusión de Internet Explorer. El Gobierno sostuvo que la Compañía se aprovechaba de la posición en el mercado de sus sistemas operativos para obtener el control de los exploradores de Internet. Microsoft afirmó que debía disponer del derecho de mejorar la funcionalidad de Windows, integrando en el SO funciones relacionadas con Internet. En plena guerra de los browsers, otro gigante del software, la Sun Microsystems demanda a Microsoft ese mismo año, alegando que había incumplido el contrato por el que se le permitía utilizar el lenguaje de programación universal JAVA, propiedad de Sun, al introducir mejoras sólo compatibles en Windows. La batalla legal de Microsoft en varias direcciones, con victorias y derrotas para demandados y demandantes, será algo que caracterizará a la Compañía desde entonces.
Windows 95, a pesar de su “obligado” éxito no estuvo exento de problemas prácticos. Con él, Microsoft nos ató para siempre a su tradicional política de los paquetes de servicio o service packs para enmendar errores, huecos de seguridad o adicionar mejoras, que las premuras del mercado no habían permitido disponer a tiempo. Con él se estrenaron, las famosas “pantallas azules”, muy comunes entonces, ocasionadas en muchos casos por un deficiente tratamiento de los manipuladores de dispositivos o drivers. Con él, finalmente, se le dio bienvenida a la desenfrenada carrera de poder de cómputo y memoria, que provocó la obsolescencia de muchos sistemas que habían sobrevivido durante años.
La llegada de Windows 98 no marcó mucha diferencia visual de su predecesor. Sin embargo, en el fondo fue todo un mensaje de lo que Microsoft haría para penetrar en el mercado de Internet y barrer con los que habían dominado en este tema hasta entonces. La indisoluble integración del WEB con el escritorio, el llamado active desktop, la interfaz a lo “HTML”, los canales (que pocos visitaron) y la persistente presencia del Explorer 4.0, para situarse por vez primera a la cabeza de los visualizadores de Internet, fueron rasgos distintivos de esta versión. El 98 incluyó utilidades para el tratamiento de FAT16 y su conversión a FAT32, mejor manejo de los discos duros, manipulación múltiple de varios monitores, una lista extendida de soporte plug and play (¡extendida, sí, pero lejos de ser perfecta!), soporte DVD, AGP, etc. A su vez la promesa de una mejora sustancial en el tratamiento de los drivers de dispositivos y en la disminución de los pantallazos azules, que realmente cumplió y mejoró con la versiónSR1 (service release 1), tiempo después.
El Windows 98 se ha mantenido hasta nuestros días y debe ser la última versión del SO que quede vinculada a lo que fue la línea MS-DOS-Windows (salvando la variante Millenium o Windows Me que no ha convencido a nadie) hasta su total sustitución por Windows 2000 y el XP, en una serie de zigzagueantes cambios que deja a todos adivinando si debe cambiar o no para la próxima versión. Pero tras este errático rumbo, Microsoft persigue sólo una cosa: conservar la supremacía de los SO de por vida.

La saga NT
La misión del equipo de desarrolladores que trabajó el NT estaba bien definida: construir un SO que supliera las necesidades de este tipo de programa para cualquier plataforma presente o futura. Con esa idea, el equipo encabezado por un antiguo programador de SO para máquinas grandes, se trazó los siguientes objetivos: portabilidad en otras arquitecturas de 32 bits, escalabilidad y multiprocesamiento, procesamiento distribuido, soporte API y disponer de mecanismos de seguridad clase 2 (C2), según parámetros definidos por el Gobierno estadounidense.
La robustez del sistema, fue un requisito a toda costa: el NT debía protegerse a sí mismo de cualquier mal funcionamiento interno o daño externo, accidental o deliberado, respondiendo de manera activa a los errores de hardware o software. Debía ser desarrollado orientado al futuro, prever las necesidades de desarrollo de los fabricantes de equipos de cómputo, su adaptación tecnológica no sólo al hardware, sino al propio software. Todo ello sin sacrificar el desempeño y eficiencia del sistema. En cuanto al certificado de seguridad, C2 debiera cumplir con los estándares establecidos por éste como la auditoría, la detección de acceso, protección de recursos, etc. Así nació el Windows NT 3.5, devenido 3.51 allá por el año 1994 y se introdujo poco a poco en un mercado hasta ese momento desterrado para Microsoft.
El NT 4.0 de nombre código Cairo, sale a luz en 1996. Por ahí leíamos que el nuevo sistema operativo cumplía una fórmula muy sencilla: tomar un NT 3.51, sumarle los service packs 1, 2 y 3 y mezclarlo con una interfaz a lo Windows 95 (incluido su recycle bin, algo realmente útil para un sistema montado sobre NTFS). Un pasó más en la integración del SO con Internet lo dio el NT 4.0 al incluir Internet Information Server, servidor de Microsoft para soporte WEB, FTP, etc. como un utilitario más dentro del paquete y que como la lógica indicaba engranaba con éste a las mil maravillas al desplazar en eficiencia y velocidad cualquier producto externo. La cara “Windows 95” se sobrepuso a un inicio incierto, ya que tuvo que vencer la desconfianza que pudo haber generado. Téngase en cuenta, que la familia NT estaba orientada a un cliente en el que la estabilidad y seguridad del sistema eran el requisito número uno y ello contrastaba con la experiencia que había tenido el 95. Sin embargo, el golpe fue genial. Por primera vez, Microsoft mezcló la solidez con el fácil uso y desterró para siempre el concepto impuesto hasta entonces de que para las grandes compañías y las grandes empresas los servidores debían ser cosa de científicos de bata blanca. El crecimiento de los usuarios NT se multiplicó desde ese momento. EL 4.0 se comercializaba en tres versiones: Workstation, Server y Advanced Server para tres variantes de clientes tipo, el profesional de las ingenierías, incluido la informática, la pequeña y mediana empresas y la gran empresa.

La convergencia
El cierre de los noventa y el inicio de siglo sorprendió a Microsoft con serios problemas legales, promesas de lanzamiento varias veces aplazadas y un nuevo cambio de estrategia. Cuando se esperaba el 5.0 como el sucesor de gama alta, éste es renombrado como Windows 2000 y la plataforma unificada en una sola. Ese mismo año, el 14 de septiembre sale el Millenium, no como un sucesor del 98, sino como un producto orientado al usuario doméstico (interfaz de colores, mucha música y vídeo, soporte para redes LAN inalámbricas, cortafuegos personales), nada del otro mundo, con poca perspectiva de supervivencia, aunque esto siempre es una incógnita. En cambio, Windows 2000 es la alternativa actual para la mayoría, en la fase justa de emigrar de un 95 ó 98. Se ofrece en 4 clasificaciones: Windows 2000 Professional, Windows 2000 Server (anteriormente NT Server), Windows 2000 Advanced Server (anteriormente NT Advanced Server) y Windows 2000 Datacenter Server, un producto nuevo, poderoso y muy específico con posibilidad de manejo de hasta 16 procesadores simétricos y 64 Gb de memoria física.
Pensamos que lo destacable de este paso estriba en haber llevado la robustez, la seguridad y la portabilidad que daba el NT al mercado masivo de las PCs. Este ofrece una plataforma impresionante para el trabajo en Internet, Intranet, manejo de aplicaciones, todo muy bien integrado. La posibilidad de soporte completo de redes, incluido redes privadas virtuales, encriptación a nivel de disco o de red y riguroso control de acceso son otras de sus bondades.
La historia terminaría aquí… si hubiese sido escrita el año pasado. No obstante, un nuevo producto, de nombre código Whistler fue inaugurado en Nueva York bajo las cuerdas de Sting, el pasado 21 de octubre, el Windows XP. Bajo su manto, un kernel de 32 bits y la herencia natural de los manipuladores que el NT y el 2000 han legado. Sin embargo incorpora toda una gama nueva de herramientas y otra filosofía de trabajo, siempre, claro está, con la red de redes en su mira. Se dice que el XP es un upgrade discreto del Windows 2000 y una piedra más en el camino de Microsoft hacia su próximo gran SO de nombre código, Blackcomb. Hay dos cuestiones a destacar en el XP: primero que parece ser la integración lógica y perfecta a su plataforma de desarrollo para la red, eNET, promesa paradisíaca para programadores y desarrolladores de aplicaciones, que como nos comentaba un profesor estudioso del tema, constituye el primer gran esfuerzo de la compañía de Redmond en el cual no ha intervenido la compra de una licencia a un tercero. Segundo, la clave de habilitación en línea para la activación del producto, que con la justificación de evitar su copia ilegal pretende mantener localizado y controlado a cada usuario del sistema.
El predominio de Microsoft en la arena de los sistemas operativos a escala masiva es incuestionable. La visión de sus fundadores, sus prácticas poco ortodoxas, así como los azares en su largo camino, han hecho de Microsoft y su Windows, en cualquiera de sus modalidades un seguro ganador en el presente y el futuro inmediato. Esperemos que al hablar de la historia de la computación, dentro de varios años, no tengamos más alternativa que contar la de un único sistema operativo. Eso, sería imperdonable.

Fuente: http://www.giga.islagrande.cu/home.htm

Ilusion Stars

Tecnologías

Solo soy un muchacho interesado en la informatica y en el avance tecnológico de nuestro país. Soy Tecnico Medio en Mecanica Automotriz, pero me atrajo la informática y me uní a ella, a partir de ese momento soy fans a las tecnología.

3 Comments

yuniels

octubre 19, 2015 at 4:24 pm

Buen post, hablar de tecnologias es hablar de casi cualquier cosa pues hoy en dia esta en todo, es muy bueno que la gente difunda temas sobre ella, yo decidi abrir un blog hace poco con estos temas y un poquito mas si quieres puedes entrar http://deprogramacion.cubava.cu y dejar tus impresiones del sitio, saludos, yuniels

    El Criticón

    diciembre 1, 2015 at 7:45 pm

    me gusto mucho tu sitio, tiene bastante tela por donde cortar. Sigue asi, que vas bien, ojala algun dia podamos unir fuerzas para hacer algo por nuestra red.

      yuniels

      diciembre 2, 2015 at 9:45 am

      Amigo lei tu comentario mi correo ixyuniels@remed.vcl.onat.gob.cu dime tu como nos podemos ayudar, escribeme a mi email, saludos y mucha suerte…

LEAVE COMMENT

Lo Último::..

    Lo Último::..

Últimos Artículos::..

Últimos Comentarios::..

Lo Más Visitado::..

Lo Más Comentado::..

Visitas Mundiales (INTERNET)