martes, 29 de mayo de 2007

sistemas operativos de hoy

9.0 SISTEMAS OPERATIVOS ACTUALES

9.1 Unix

El sistema operativo Unix es monousuario que incorpora multitareas. Fue desarrollado en 1969 para su uso en computadores.
Este sistema operativo es considerado potente. Independiente y mas trasportable que otros

Estrictamente, UNIX designa el núcleo de un sistema operativo multiusuario y multitarea. En un sentido más amplio, comprende el núcleo del sistema operativo más un conjunto de programas que permiten compilar lenguajes de programación, editar texto, interpretar comandos, manejar archivos y discos, acceder a otras máquinas, establecer comunicaciones telefónicas, enviar y recibir correo electrónico, manejar las colas de impresión y un sinfín de tareas más. Algunos de estos programas pueden haber sido desarrollados por los propios usuarios.
UNIX designa al mismo tiempo un cierto "ambiente de trabajo", un conjunto de circunstancias que encuentra el usuario de la computadora donde corre UNIX, tales como la presentación en pantalla, los programas disponibles y la forma de trabajo que impone o permite.
Cuando hablemos de UNIX nos estaremos refiriendo al sentido amplio y, conjuntamente, a su ambiente de trabajo.
9.1.1 Características:
ü muchas herramientas de software (compiladores, editores, utilitarios para muchas tareas).
ü reutiliza el software, a través de la combinación de comandos simples en aplicaciones complejas.
ü portable: el mismo sistema operativo corre en un espectro de máquinas que van desde notebooks a supercomputadoras. Es el único sistema operativo con estas características.
ü flexible: se adapta a muchas aplicaciones diferentes.
ü potente: dispone de muchos comandos y servicios ya incorporados.
ü multiusuario: atiende a muchas personas simultáneamente.
ü multitarea: hace muchas cosas a la vez.
ü elegante: sus comandos son breves, coherentes, específicos para cada tarea y muy eficientes.
ü orientado a redes desde el comienzo.
ü dispone de un estándar (POSIX) que debe cumplir todo sistema operativo que pretenda ser UNIX, lo que asegura una evolución predecible.
ü con más prestaciones que el estándar de POSIX.
ü Versiones actuales de UNIX.
ü AT&T, para enfrentar a OSF, crea UI, UNIX International, junto con otras empresas; crea otro UNIX ampliado de POSIX.
ü IBM crea su propia variante de UNIX, llamada AIX. La confusión de versiones continúa.
ü surgen las versiones UNIX de dominio público FreeBSD y Linux, que se distribuyen sin costo. Linux es desarrollado por una multitud de personas y equipos de trabajo a través de Internet. FreeBSD es desarrollado por un grupo de trabajo cerrado.
ü UNIX hacia el usuario final: distribuciones fáciles de instalar (SuSE, Redhat, Mandrake, Corel), aplicaciones de escritorio (Applixware, StarOffice), programas asistentes de administración para estaciones de trabajo o servidores.
ü Objetivos de UNIX.
ü UNIX fue diseñado teniendo en mente los siguientes objetivos:
ü crear un sistema interactivo de tiempo compartido diseñado por programadores y para programadores, destinado a usuarios calificados.
ü que fuera sencillo, elegante, escueto y consistente.
ü que permitiera resolver problemas complejos combinando un número reducido de comandos básicos.
ü Filosofía del sistema UNIX.
ü Los objetivos con que se creó determinaron una "filosofía" de UNIX caracterizada por:
ü comandos cortos, simples, específicos y muy eficientes, que "hacen una sola cosa pero la hacen muy bien".
ü entrada y salida estandarizadas que permiten la interconexión de comandos. Esto se llama entubamiento ("pipelining"): la salida de un comando es tomada por el siguiente como entrada.
9.2 El Unix moderno

Orientado en primera instancia a terminales de caracteres, actualmente dispone de la interface gráfica X-Windows. Esto ha simplificado mucho el uso para los no especialistas.
Es ideal para trabajar como servidor: una máquina potente como servidor, terminales o computadores personales baratas en los puestos de trabajo. El paquete de libre uso Samba permite que una máquina UNIX actúe como servidor de puestos de trabajo Windows 3.11, Windows 95, y Windows NT.
Se orienta en la dirección contraria a la tendencia de hacer invisible al usuario el sistema operativo, permitiendo el uso de todas las bibliotecas, llamadas al sistema y herramientas internas, aunque su uso requiere un alto nivel de especialización. Es posible compilar un núcleo específicamente adaptado a las necesidades particulares de una empresa o grupo de trabajo, reduciendo el uso de recursos y aumentando la rapidez.
Las máquinas RISC de los '80 y '90 adoptaron UNIX como sistema operativo; es por lejos el sistema predominante en las estaciones de trabajo orientadas a cálculos e investigación. También fue adoptado para la creación de Internet, mayoritariamente soportada por UNIX.
Por sus características de diseño, está especialmente preparado para su ampliación y desarrollo en 64 bits y el multiprocesamiento en varias CPUs.

9.3 Linux
Posiblemente Linux sea uno de los mejores y más potentes sistemas operativos que hay, con la particularidad de que es gratis y se puede copiar libremente sin incurrir en responsabilidades legales, por lo que constituye una seria alternativa frente a otros sistemas operativos
Se puede decir, con ciertos matices, que Linux es un Unix para procesadores de Intel, los más extendidos entre los PC y que está probando ser una alternativa viable para Windows NT. Cuando se dice que es un ordenador con sistema operativo Linux se están considerando varias cosas: por un lado el kernel (esto es, el Linux propiamente dicho), programas del sistema (típicamente software GNU) y, casi siempre, un sistema de ventanas X.11. Estos tres componentes son lo suficientemente diferentes como para estar cubiertos por licencias distintas, aunque todas ellas comparten más o menos el concepto del software libre que se encuentre en el origen del sistema operativo Unix.
Linux está registrado bajo la licencia GPL (GNU Public License) que otorga el derecho a utilizar el software y a distribuirlo a cualquier persona junto con su código fuente; por tanto, es posible modificarlo para añadirle mejoras, siempre que la distribución se realice bajo la licencia GPL. En la actualidad, Linus Torvalds continua con el desarrollo de Linux, pero el autor principal es un gran grupo de programadores (posiblemente más de 1000) que ha contribuido para su desarrollo en Internet.
El Proyecto GNU comenzó en 1984 para desarrollar un sistema operativo tipo Unix completo y libre: El sistema GNU. Variantes del sistema GNU, utilizando Linux como kernel, se usan ampliamente y, aunque frecuentemente se llaman "Linux", más exactamente habría que llamarlas sistemas GNU/Linux.
La gran mayoría de los programas comerciales sigue el modelo centralizado y cerrado donde sólo hay un equipo trabajando en el mismo proyecto, y no se comercializa una nueva versión hasta que esté totalmente probada y libre de errores, una situación que da lugar a largos periodos de tiempo entre versiones. Casi siempre, la última versión de este tipo de software es de mejor calidad para el público, pero la velocidad de desarrollo es lenta. Por el contrario, el desarrollo de Linux sigue un modelo abierto y distribuido, lo que significa que la versión está actualmente en desarrollo y siempre está disponible para que, el que lo desee, pueda usarla. Presenta el riesgo de que en cuanto se añada una nueva funcionalidad y se obtenga una nueva versión, ésta tendrá errores, pero con la ventaja de que serán detectados y corregidos rápidamente ya que hay mucha gente que permanentemente trabaja en ello.
9.3.1 Características de Linux
Destaca que es un sistema basado en texto, sobre el cual se dan las siguientes características: es multiusuario, es decir que pueden estar trabajando varias personas al mismo tiempo, ya sea localmente o en forma remota, además es multitarea puesto que las personas que se conecten pueden trabajar o correr varias aplicaciones al mismo tiempo y, por supuesto, es multiplataforma y multiprocesador ya que corre sobre varias de ellas.
Linux es absolutamente compatible con Unix ya que cualquier programa escrito para SCO, Solaris, HP-UX, Unixware, puede ser compilado en Linux, además de encontrarnos con ambientes totalmente idénticos a cualquier Unix comercial. Corre sobre arquitectura x86 de Intel, lo que es lo mismo que decir que corre en cualquier ordenador personal, llevando de esta forma la potencia de Unix y el entorno real multiusuario a la plataforma de ordenadores mas extendida en el mundo en la actualidad (386, 486 y Pentium); también, existen versiones para Alpha, ARM, MIPS, SPARC, PowerPC/Macintosh, etc.
Linux viene cargado con muchos lenguajes y utilidades para desarrollar aplicaciones Java, C, C++, Pascal, Perl, etc., los cuales incluyen cientos de librerías, compiladores y código fuente para facilitar el desarrollo de programas, y lo mejor de todo es que mientras para tener, por ejemplo, en Windows estos programas hay que pagar miles de pesetas, aquí es completamente gratis.
Si se desea un sistema completamente estable, Linux es una muy buena opción ya que el servidor Linux que tiene el récord actual es de casi 500 días sin caerse. Esto es un tremendo cambio si se compara con los servidores Windows NT que suelen tener varias caídas al mes. Esto no quiere decir que Linux no tenga problemas o bugs, pero cuando se encuentra uno el parche para solucionarlo suele estar disponible, en muchos casos, antes de 24 horas.
a. Proporciona protección de memoria entre procesos, de manera que, si un proceso se vuelve inestable, no afecta a todo el sistema.
b. Memoria unificada para los programas de usuario y el caché de disco.
c. Carga de ejecutables por demanda. Permite leer y cargar en memoria únicamente las partes que se utilizan de un programa y no su totalidad.
d. Maneja memoria virtual usando paginación a disco. Por tanto, no se transfieren todos los procesos al disco, sino sólo los necesarios.
e. El código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y los programas de usuario.
f. Emulación del 387 (coprocesador) en el núcleo, de manera que los programas no tengan que hacer su propia emulación matemática.
g. Soporta múltiples consolas virtuales permitiendo diferentes sesiones, hasta un máximo de 64, que se crean dinámicamente.
h. Acceso transparente a particiones MS-DOS mediante un sistema de archivos especial, sin requerir ningún comando específico para ello.
i. Esta dotado de un sistema de archivos especial llamado «UMSDOS»+. que permite que Linux sea instalado en un sistema de archivos DOS.
j. Diversos protocolos de comunicaciones incluidos en el kernel, entre ellos TCP/IP, SLIP, X.25 y es válido para FTP, Telnet, NFS, etc.
Existen varias distribuciones (un paquete que incluye un núcleo de Linux, las utilidades básicas y una serie de programas), que pueden bajarse de la Red vía FTP o pedirse en CD-ROM a muy bajo coste, siendo las más conocidas las siguientes: Caldera, Debian, Red Hat, Slackware, y SuSE. La distribución más conocida de todas es la de Slackware, por ser la primera, aunque las más recomendadas son Red Hat y Debian debido a que ofrecen un amplio y variado conjunto de utilidades adicionales.
Linux nació como la idea de una persona pero se desarrolló gracias a la colaboración de millares de voluntarios a través de Internet, el mejor sitio para informarse de todo lo relativo a él. Podemos encontrar listas de software, empresas que comercian con Linux y manuales y libros de todas clases, tanto genéricos como específicos.
Linux se construye por un equipo de desarrolladores independientes de todas partes del mundo que intercambian su información a través de la red Internet y en lo que se refiere al núcleo central del Sistema Operativo, el kernel, se encuentra coordinado por Linus Torvalds. Por estas razones la licencia de Linux se acoge a la Licencia Publica General (GPL) y de la Fundación de Software Libre (FSF), lo cual permite que el código fuente de sus programas no pueda ser propiedad de ningún particular y pueden ser modificados siempre que se haga publico el nuevo código.
Linux fue construido en Internet, es decir que desde el inicio tuvo capacidades de red. Por ser un clónico de Unix tiene todos los elementos y programas necesarios para comunicarse entre cliente-servidor, interactuando con otros sistemas operativos. Existen unas suites similares a Office 97, que tienen la ventaja de ser gratis para uso personal y un costo muy bajo para uso comercial, facilitando el intercambio de información por medio de filtros de los programas mas utilizados, entre los cuales destacan el de poder manejar los creados o editados en MS Office 95 y 97.
9.4 Windows
Windows es un sistema operativo con interfaz gráfica para computadoras personales cuyo propietario es la empresa Microsoft. Las distintas versiones de Windows, las cuales ofrecen un entorno gráfico amigable y sencillo, principalmente desde la versión Windows 95, ha convertido en Windows en el sistema operativo más utilizado en el mundo. Debido a ello la mayoría de las empresas fabricantes de hardware y software en el mundo tienden a desarrollar sus aplicaciones basadas en dicho sistema. Windows ha incorporado a través de sus diferentes versiones múltiples herramientas que se han convertido en estándares en la mayoría de los usuarios en el mundo. Así, Windows incorpora, entre otro software, herramientas como Internet Explorer y el Reproductor de Windows Media, los cuales se han convertido en el navegador de internet y reproductor multimedia, respectivamente, más populares en el mundo.
Windows es utilizado principalmente en computadoras personales existiendo también diferentes versiones para servidores y dispositivos móviles.
9.5 MACINTOSH es el nombre con el que actualmente nos referimos a cualquier computadora personal diseñada, desarrollada, contruída y comercializada por Apple Inc.. La Macintosh original fue lanzada el 24 de enero de 1984. Fue la primera computadora personal comercializada exitosamente que usaba una interfaz gráfica de usuario (GUI) y un mouse en vez del estándar de esa época: la interfaz por línea de comandos.
Los primeros Macintosh estaban basados en los microprocesadores de la familia 68000 de Motorola, de tecnología CISC. En Marzo de 1994, Apple introdujo en la gama Macintosh los chips PowerPC del Consorcio Apple/IBM/Motorola, que suponían el cambio a la tecnología RISC.
El año 2006 Apple dejó de fabricar ordenadores con procesadores del consorcio Apple/IBM/Motorola para empezar a utilizar procesadores fabricados por la multinacional Intel de la familia IA (Intel Architecture), en concreto, unos procesadores de doble núcleo comercializados bajo el nombre Intel Core Duo.
Los Apple Macintosh son comercializados con el sistema operativo Mac OS X basado en un núcleo Mach con una capa BSD, con soporte integrado para el sistema operativo anterior: Mac OS 9, que desaparece en la nueva gama con procesadores Intel. También es posible instalar en ellos Linux, NetBSD o Darwin, ahora existe la posibilidad de instalar Windows de forma nativa en los Apple con procesador Intel, gracias al software de Apple Boot Camp. Se desconoce, por ahora, la compatibilidad con Windows Vista.
La Macintosh fue la computadora personal original de Apple Macintosh. Lanzada en enero de 1984 al precio de 2495 dólares americano, tenía un case color beige y era de un sólo módulo. Una indentación en la parte superior del caso permitía cargar la computadora para que sea transportada. Este modelo original de Macintosh es ahora conocido como la Macintosh 128K, un retrónimo acuñado para diferenciarlo de otros modelos.

casas porductoras desistemas operativos

8.0 CASAS PRODUCTORAS DE SISTEMAS OPERATIVOS
Destacaremos en esta parte 3 de las las empresas productoras de software o sistemas operativos mas importante de la actualidad.
8.1 Microsoft
Microsoft (Microcomputer Software), es una empresa de, fundada por Bill Gates y Paul Allen, los cuales siguen siendo sus principales accionistas. Dueña y productora de los sistemas operativos: Microsoft DOS y Microsoft Windows, que se utilizan en la mayoría de las computadoras del planeta.
Microsoft es proveedora del 50 por ciento de las aplicaciones de software que se usan en el mundo, desde las hojas de cálculo hasta bases de datos, pasando por los procesadores de texto. Su dominio del mercado es tan grande, que en algunos países el dominio de algunos de sus programas es requerido para puestos de trabajo, y son muchos los empresarios que sólo admiten sus productos, sin preocuparse de evaluar las alternativas.
Hay una serie de objetivos que ha buscado siempre Microsoft en sus desarrollos (aunque no siempre lo haya conseguido). A juicio de algunos expertos, esta estrategia es lo que más ha contribuido a llevar a Microsoft a su actual posición de mercado:
Compatibilidad del software con versiones anteriores; en concreto, se procura que las nuevas versiones de los sistemas operativos sean lo más compatibles posibles con las anteriores.
Abundancia de asistentes y otros mecanismos para facilitar el trabajo de gente con escasos conocimientos de informática.
Dar más importancia a la capacidad de los programas de hacer más cosas que a su estabilidad o su seguridad. Recientemente, se ha anunciado la intención de invertir esto.
Dar prioridad a la interoperabilidad entre los productos propios, por encima de la que haya con los ajenos.
Tradicionalmente, se han distinguido 4 líneas de productos:
Sistemas operativos: MS-DOS, Windows.
Aplicaciones para la oficina (ofimática): MS Works, MS Office (Word, Excel, Access, Powerpoint, InfoPath, FrontPage, Outlook y Publisher)
Compiladores: MS Visual C++, MS Visual Basic
Herramientas de desarrollo: .NET
Más recientemente:
Internet: MS Internet Explorer o MS Internet Information Server.
Videojuegos: Estrategia, como la famosa saga Age of Empires, simuladores de vuelo (Flight Simulator) y otros como Fable.
Videoconsolas: Xbox y Xbox 360
Alguna de las tácticas empresariales más frecuentes:
Comprar pequeños programas o servicios de otras empresas, e integrarlos en sus productos con otro nombre: MS-DOS, scandisk, defrag, Internet Explorer, MS Antivirus, Hotmail.
Integrar reproductores o visualizadores propios en el sistema operativo, convirtiendo así los formatos de los que es propietaria en estándares "de facto": Windows Media Player, Internet Explorer, Windows Messenger. Esto último provoca una gran incompatibilidad con otros Sistemas Operativos como Linux o Macintosh al no disponer estos de tales formatos.
Sus principales fuentes de ingresos son:
Venta de licencias de software.
Venta de servicio técnico.
Cursos acreditados: MCSE, etc.
Venta de hardware (principalmente consolas y periféricos)
En 1997, Microsoft firmó una alianza con Apple, que volvía estar al mando de Steve Jobs. A cambio de US$150 millones en acciones de Apple, Microsoft y Apple tendrían una licencia cruzada de cinco años sobre patentes y, lo más importante, un acuerdo final en la disputa sobre la GUI del Mac OS. Microsoft convino en pagar una suma adicional de dinero, que no se dio a conocer, para terminar con los argumentos que sostenían que Microsoft había robado la propiedad intelectual de Apple cuando diseñó el sistema operativo del Windows. Microsoft también anunció que Office '98, su popular paquete de aplicaciones para uso en oficinas, estaría disponible para la Mac hacia fin de año.
8.2 Productos más conocidos
Microsoft Windows
Microsoft Office, que incluye MS Word, MS Excel, MS Powerpoint, MS Access, MS Outlook...
Microsoft Encarta
Microsoft Picture It!
Microsoft Visual Studio
Microsoft Internet Explorer
Microsoft Xbox
Microsoft SQL Server
Windows Live
8.3 Apple
Apple Inc. es una empresa estadounidense de tecnología informática. Fundada en 1976 tuvo un rol prominente en la revolución informática de los años 70 con su ordenador Apple II. Sus inicios son poco menos que curiosos, y forman parte del folclore informático. Tanto Steve Jobs como Steve Wozniak eran dos grandes aficionados a la electrónica en general y a la informática en particular, en especial Wozniak. Este, desde pequeño, dedicaba sus ratos libres a idear complejos circuitos electrónicos para después optimizarlos al máximo. De esta afición, surgió su primer ordenador, el Apple I, el cual fue presentado en la Homebrew Computer Club. Aunque para Wozniak la construcción de ordenadores no era más que un simple hobby, Jobs rápidamente vio la oportunidad de negocio, por lo que empezó a promocionar el ordenador entre otros aficionados de la informática del Homebrew Computer Club y otras tiendas de electrónica digital.

8.4 Sun Microsystem
Es una empresa informática del Silicon Valley, fabricante de semiconductores y software. Fue constituida en 1982 por el alemán Andreas von Bechtolsheim y los norteamericanos Vinod Koshla, Bill Joy, Scott McNealy y Marcel Newman. Las siglas SUN se derivan de «Stanford University Network», proyecto que se había creado para interconectar en red las bibliotecas de Stanford. En ese año introducen al mercado su primera estación de trabajo que desde su inicio trabajó con el protocolo TCP/IP, protocolo sobre el cual se rige todo el tráfico de Internet.
Actualmente, la empresa cuenta con alrededor de 31.000 empleados a nivel mundial (datos de finales del año fiscal 2005). Se hizo famosa por el eslogan «The network is the computer» («La red es la computadora»). Su valor actual en la bolsa de tecnología Nasdaq está ligeramente sobre los 17 mil millones de dólares americanos (abril 2006), y sus ventas anuales ascienden a 11 mil millones de dólares.Algunos de sus productos han sido servidores y estaciones de trabajo para procesadores SPARC, los sistemas operativos SunOS y Solaris, el NFS, la plataforma de programación Java y conjuntamente con AT&T, la estandarización del UNIX System V Release 4. Además de otros proyectos quizás menos rentables, como un nuevo entorno gráfico, NeWS o la interfaz gráfica de usuario OpenLook

martes, 22 de mayo de 2007

¿Que es un Sistema Operativo?

Un sistema operativo se considera como parte importante de un sistema de cómputo, tanto así que se puede determinar figuradamente como el combustible que permite el control, la funcionalidad y la coordinación de la maquina.

Establecer un concepto preciso sobre los que es un sistema operativo no es fácil dado que no hay una definición exacta, es decir una que sea estándar, sin embargo se puede afirmar técnicamente que un sistema operativo es el encargado de administrar los recursos de hardware de la computadora con el objeto de proporcionar un conjunto de servicios a los usuarios del sistema y que además actúa como intermediario entre el usuario y el hardware del computador. Un sistema operativo tiene como propósitos proveer una máquina virtual, es decir, un ambiente en el cual el usuario pueda ejecutar programas de manera conveniente, protegiéndolo de los detalles y complejidades del hardware;, y el otro es lograr que el hardware del computador se emplee de manera eficiente.

El Sistema Operativo se encuentra almacenado en la memoria secundaria. Primero se carga y ejecuta un pedazo de código que se encuentra en el procesador, el cual carga el BIOS, y este a su vez carga el Sistema Operativo que carga todos los programas de aplicación y software variado.

SO es una parte importante de casi cualquier sistema informático. Para entender mejor esto veremos que un sistema informático puede separar en cuatro partes:
  • El hardware
  • El SO
  • Los programas de aplicación
  • Los usuarios

Historia de los sistemas operativos.

Para tratar de comprender los requisitos de un Sistema Operativo y el significado de las principales características de un Sistema Operativo contemporáneo, es útil considerar como han ido evolucionando éstos con el tiempo.
Existen diferentes enfoques o versiones de como han ido evolucionando los sistemas operativos La primera de estas versiones podría ser esta:
En los 40's, se introducen los programas BIT a BIT, por medio de interruptores mecánicos y después se introdujo el leng. Máquina que trabajaba por tarjetas perforadas.
Con las primeras computadoras, desde finales de los años 40 hasta la mitad de los años 50, el programador interactuaba de manera directa con el hardware de la computadora, no existía realmente un Sistema Operativo; las primeras computadoras utilizaban bulbos, la entrada de datos y los programas se realizaban a través del lenguaje máquina (bits) o a través de interruptores.
Durante los años 50's y 60's.- A principio de los 50's, la compañía General's Motors implanto el primer sistema operativo para su IBM 170. Empiezan a surgir las tarjetas perforadas las cuales permiten que los usuarios (que en ese tiempo eran programadores, diseñadores, capturistas, etc.), se encarguen de modificar sus programas. Establecían o apartaban tiempo, metían o introducían sus programas, corregían y depuraban sus programas en su tiempo. A esto se le llamaba trabajo en serie. Todo esto se traducía en pérdida de tiempo y tiempos de programas excesivos.
En los años 60's y 70's se genera el circuito integrado, se organizan los trabajos y se generan los procesos Batch (por lotes), lo cual consiste en determinar los trabajos comunes y realizarlos todos juntos de una sola vez. En esta época surgen las unidades de cinta y el cargador de programas, el cual se considera como el primer tipo de Sistema Operativo.
En los 80's, inició el auge de la INTERNET en los Estados Unidos de América. A finales de los años 80's comienza el gran auge y evolución de los Sistemas operativos. Se descubre el concepto de multiprogramación que consiste en tener cargados en memoria a varios trabajos al mismo tiempo, tema principal de los sistemas operativos actuales.
Los 90's y el futuro, entramos a la era de la computación distribuida y del multiprocesamiento a través de múltiples redes de computadoras, aprovechando el ciclo del procesador.
Se tendrá una configuración dinámica con un reconocimiento inmediato de dispositivos y software que se añada o elimine de las redes a través de procesos de registro y localizadores.
La conectividad se facilita gracias a estándares y protocolos de sistemas abiertos por organizaciones como la Org. Intern. De normas, fundación de software abierto, todo estará mas controlado por los protocolos de comunicación OSI y por la red de servicios digital ISDN.
Se ha desarrollado otra versión, la cual se ha hecho en base a etapas o generaciones:

1a. Etapa (1945-1955): Bulbos y conexiones.

Después de los infructuosos esfuerzos de Babbage, hubo poco progreso en la construcción de las computadoras digitales, hasta la Segunda Guerra Mundial. A mitad de la década de los 40's, Howard Aiken (Harvard), John Von Newman (Instituto de Estudios Avanzados, Princeton), J. Prespe R. Eckert y Williams Mauchley (Universidad de Pennsylvania), así como Conrad Zuse (Alemania), entre otros lograron construir máquinas de cálculo mediante bulbos. Estas máquinas eran enormes y llenaban cuartos completos con decenas de miles de bulbos, pero eran mucho más lentas que la computadora casera más económica en nuestros días.
Toda la programación se llevaba a cabo en lenguaje de máquina absoluto y con frecuencia se utilizaban conexiones para controlar las funciones básicas de la máquina. Los lenguajes de programación eran desconocidos (incluso el lenguaje ensamblador). No se oía de los sistemas operativos el modo usual de operación consistía en que el programador reservaba cierto período en una hoja de reservación pegada a la pared, iba al cuarto de la máquina, insertaba su conexión a la computadora y pasaba unas horas esperando que ninguno de los 20,000 o más bulbos se quemara durante la ejecución. La inmensa mayoría de los problemas eran cálculos numéricos directos, por ejemplo, el cálculo de valores para tablas de senos y cósenos.
A principio de la década de los 50's la rutina mejoro un poco con la introducción de las tarjetas perforadas. Fue entonces posible escribir los programas y leerlas en vez de insertar conexiones, por lo demás el proceso era el mismo.

2a. Etapa. (1955-1965): Transistores y de Procesamiento por lotes.

La introducción del transistor a mediados de los años 50's modificó en forma radical el panorama. Las computadoras se volvieron confiables de forma que podían fabricarse y venderse a clientes, con la esperanza de que ellas continuaran funcionando lo suficiente como para realizar un trabajo en forma.
Dado el alto costo del equipo, no debe sorprender el hecho de que las personas buscaron en forma por demás rápidas vías para reducir el tiempo invertido. La solución que, por lo general se adoptó, fue la del sistema de procesamiento por lotes.


3ra Etapa (1965-1980): Circuitos integrados y multiprogramación.

La 360 de IBM fue la primera línea principal de computadoras que utilizó los circuitos integrados, lo que proporcionó una gran ventaja en el precio y desempeño con respecto a las máquinas de la segunda generación, construidas a partir de transistores individuales. Se trabajo con un sistema operativo enorme y extraordinariamente complejo. A pesar de su enorme tamaño y sus problemas el sistema operativo de la línea IBM 360 y los sistemas operativos similares de esta generación producidos por otros fabricantes de computadoras realmente pudieron satisfacer, en forma razonable a la mayoría de sus clientes. También popularizaron varias técnicas fundamentales, ausentes de los sistemas operativos de la segunda generación, de las cuales la más importante era la de multiprogramación.
Otra característica era la capacidad de leer trabajos de las tarjetas al disco, tan pronto como llegara al cuarto de cómputo. Así, siempre que concluyera un trabajo el sistema operativo podía cargar un nuevo trabajo del disco en la partición que quedara desocupada y ejecutarlo.

4ta Etapa (1980-Actualidad): Computadoras personales.

Un interesante desarrollo que comenzó a llevarse a cabo a mediados de la década de los ochenta ha sido el crecimiento de las redes de computadoras personales, con sistemas operativos de red y sistemas operativos distribuidos.
En los sistemas operativos de red, los usuarios están conscientes de la existencia de varias computadoras y pueden conectarse con máquinas remotas y copiar archivos de una máquina a otra. Cada máquina ejecuta su propio sistema operativo local y tiene su propio usuario.
Por el contrario, un sistema operativo distribuido es aquel que aparece ante sus usuarios como un sistema tradicional de un solo procesador, aun cuando esté compuesto por varios procesadores. En un sistema distribuido verdadero, los usuarios no deben ser conscientes del lugar donde su programa se ejecute o de lugar donde se encuentren sus archivos; eso debe ser manejado en forma automática y eficaz por el sistema operativo.

Historia de UNIX

El inicio del desarrollo de este sistema operativo (uno de los más influyentes en la historia de la computación) fue muy particular, pues nadie habría predicho el éxito de UNIX después de su primera encarnación.
A finales en 1960, el
Instituto Tecnológico de Massachusetts, los laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Information and Computing System), desarrollado para ejecutarse en un ordenador o computadora central (mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto, por cierto, consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos. Uno de los programadores del equipo de los laboratorios Bell, Ken Thompson, siguió trabajando para la computadora GE-645 y escribió un juego llamado Space Travel (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida.
De este modo, Thompson escribió nuevamente el programa, con ayuda de Dennis Ritchie, en
lenguaje ensamblador, para que se ejecutase en un ordenador DEC PDP-7. Esta experiencia, junto al trabajo que desarrolló para el proyecto Multics, condujo a Thompson a iniciar la creación de un nuevo sistema operativo para la DEC PDP-7. Thompson y Ritchie lideraron un grupo de programadores, entre ellos a Rudd Canaday, en los laboratorios Bell, para desarrollar tanto el sistema de ficheros como el sistema operativo multitarea en sí. A lo anterior, agregaron un intérprete de órdenes (o intérprete de comandos) y un pequeño conjunto de programas. El proyecto fue bautizado UNICS, como acrónimo Uniplexed Information and Computing System, pues sólo prestaba servicios a dos usuarios (de acuerdo a Andrew Tanenbaum, era sólo a un usuario [1]). La autoría de esta sigla se le atribuye a Brian Kernighan, ya que era un hack de Multics. Dada la popularidad que tuvo un juego de palabras que consideraba a UNICS un sistema MULTICS castrado (pues eunuchs, en inglés, es un homófono de UNICS), se cambió el nombre a UNIX, dando origen al legado que llega hasta nuestros días.
Hasta ese instante, no había existido apoyo económico por parte de los laboratorios Bell, pero eso cambió cuando el Grupo de Investigación en Ciencias de la Computación decidió utilizar UNIX en una máquina superior a la PDP-7. Thompson y Ritchie lograron cumplir con la solicitud de agregar herramientas que permitieran el procesamiento de textos a UNIX en una máquina
PDP-11/20, y como consecuencia de ello consiguieron el apoyo económico de los laboratorios Bell. Fue así como por vez primera, en 1970, se habla oficialmente del sistema operativo UNIX ejecutado en una PDP-11/20. Se incluía en él un programa para dar formato a textos (runoff) y un editor de texto. Tanto el sistema operativo como los programas fueron escritos en el lenguaje ensamblador de la PDP-11/20. Este "sistema de procesamiento de texto" inicial, compuesto tanto por el sistema operativo como de runoff y el editor de texto, fue utilizado en los laboratorios Bell para procesar las solicitudes de patentes que ellos recibían. Pronto, runoff evolucionó hasta convertirse en troff, el primer programa de edición electrónica que permitía realizar composición tipográfica. El 3 de noviembre de 1971 se publicó The UNIX Programmer's Manual.
En
1973 se tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C. Este cambio significaba que UNIX podría ser fácilmente modificado para funcionar en otros ordenadores (de esta manera, se volvía portátil) y así otras variaciones podían ser desarrolladas por otros programadores. Ahora, el código era más conciso y compacto, lo que se tradujo en un aumento en la velocidad de desarrollo de UNIX. AT&T puso a UNIX a disposición de universidades y compañías, también al gobierno de los Estados Unidos, a través de licencias. Una de estas licencias fue otorgada al Departamento de Computación de la Universidad de California, con sede en Berkeley. En 1975 esta institución desarrolló y publicó su propio sucedáneo de UNIX, conocida como Berkeley Software Distribution (BSD), que se convirtió en una fuerte competencia para la familia UNIX de AT&T.
Mientras tanto, AT&T creó una división comercial denominada Unix Systems Laboratories para la explotación comercial del sistema operativo. El desarrollo prosiguió, con la entrega de las versiones 4, 5 y 6 en el transcurso de 1975. Estas versiones incluían los
pipes o tuberías, lo que permitió dar al desarrollo una orientación modular respecto a la base del código, consiguiendo aumentar aún más la velocidad de desarrollo. Ya en 1978, cerca de 600 o más máquinas estaban ejecutándose con alguna de las distintas encarnaciones de UNIX.
La versión 7, la última versión del UNIX original con amplia distribución, entró en circulación en 1979. Las versiones 8, 9 y 10 se desarrollaron durante la década de 1980, pero su circulación se limitó a unas cuantas universidades, a pesar de que se publicaron los informes que describían el nuevo trabajo. Los resultados de esta investigación sirvieron de base para la creación de Plan 9, un nuevo sistema operativo portátil y distribuido, diseñado para ser el sucesor de UNIX en investigación por los Laboratorios Bell.

Historia de Windows

MS-DOS


El MS-DOS tiene el origen en el QDOS (Quick and Dirty Operating System) sistema operativo escrito por Tim Paterson para la Seattle Computer Products y comercializado bajo la denominación 86-DOS. Se diseñó como un clon a corto plazo del sistema operativo CP/M, para dar compatibilidad con la base instalada existente de programas comerciales como WordStar y dBase. Cuando IBM encargó a Microsoft un sistema operativo para su entonces novedoso IBM PC, Microsoft se vio incapaz de cumplir los plazos y compró el QDOS a sus propietarios, saliendo al mercado en dos versiones: PC-DOS (versión de IBM) y MS-DOS (versión de Microsoft).
El MS-DOS fue el producto clave en la transformación de Microsoft desde sus orígenes en los
años 70 como proveedor especializado en lenguajes de programación a su actual estado como gigante en la industria informática. Precisamente los ingresos por las ventas de MS-DOS (particularmente mediante contratos exclusivos con marcas, probados como ilegales en Estados Unidos más tarde) hicieron posible un espectacular crecimiento de la compañía. De hecho, hasta la salida de Windows 95, los ingresos por MS-DOS eran superiores a los de Windows.
Con el tiempo MS-DOS imitó otros sistemas operativos; MS-DOS 2.0 introdujo características de
Unix tales como subdirectorios, redirección de entrada/salida de órdenes y tuberías (en inglés pipe).
MS-DOS no es
multiusuario o multitarea, pero se hicieron muchos intentos para agregarle estas capacidades en un futuro. Muchos programas utilizaron la técnica terminar y permanecer residente o TSR (Terminate and Stay Resident) y otras funciones normalmente indocumentadas para proporcionar aplicaciones pop up incluyendo el popular Sidekick de Borland. Entornos añadidos como DesqView intentaron proporcionar características multitarea, logrando cierto grado de éxito al combinarse con la administración de memoria del hardware del procesador Intel 80386.
Tras la aparición del
Apple Macintosh en 1984, el público se interesó por la interfaz de usuario gráfica o GUI (Graphical User Interface), aunque el primer entorno gráfico fue el Alto de Xerox en 1973, basado en un sistema operativo propio. Muchos programas crearon sus propias interfaces gráficas, como Microsoft Word para DOS, XTree y el Norton Shell. Sin embargo, esto exigía duplicar esfuerzos y no proporcionaba mucha consistencia, lo que hizo crear entornos GUI completos.
Así, IBM y Microsoft se aliaron en un proyecto llamado
OS/2, originalmente una versión en modo protegido de MS-DOS con una GUI, pero Microsoft pronto abandonó el proyecto para concentrar sus recursos en Windows. Por su parte, Digital Research creó el entorno GEM sin alcanzar mucha popularidad. Finalmente, tanto el OS/2 como el GEM se abandonaron, al parecer por contratos de exclusividad de Microsoft con vendedores de hardware de ordenadores. En teoría, hasta Windows 95, Windows no era un sistema operativo, sino una shell o capa que se interponía entre el usuario y el MS-DOS para facilitar su utilización. No obstante, hay expertos que alargan esta transformación hasta el Windows NT - Windows XP.
Actualmente, MS-DOS ha sido sustituido por la familia de sistemas Windows de Microsoft, sin embargo la consola de comando del sistema permite acceder a un entorno de texto con casi los mismos comandos de MS-DOS.
Las primeras versiones de Windows podían ejecutar programas para MS-DOS. Las últimas versiones de DOS "extendidas" usaban el
modo protegido. Las últimas versiones de Windows se ejecutan independientemente de DOS pero incluyen una parte importante de viejo código que puede ejecutarse en máquinas virtuales (virtual machines).





Windows NT


Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a [Dave Cutler], uno de los jefes analistas de VMS en [Digital Equipment Corporation](hoy parte de Compaq) para convertir NT en un sistema más competitivo. Cutler había estado desarrollando un sucesor del VMS en DEC(Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al [microprocesador Alpha] de DEC en NT. Siendo un sistema operativo completamente nuevo Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2.





Windows 95


En respuesta a ello Microsoft comenzó a desarrollar un sucesor para Windows 3.1 cuyo nombre clave era Chicago. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. También se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preventiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa. Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1. De este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes.





Windows NT 3.1


(la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de Julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de [Windows XP].





Windows NT 4.0


Después de la aparición de Windows 95, Windows NT continuaba usando la interfaz de Windows 3.1. Entonces Microsoft publicó Windows NT 4.0 que tenía la nueva interfaz de Windows 95 pero sobre Windows NT.





Windows 98


El 25 de Junio de 1998 llegó Windows 98, que era una revisión menor de Windows 95. Incluía nuevos controladores de hardware y el sistema de ficheros [FAT 32] que soportaba particiones mayores a los 2 GB permitidos por Windows 95.





Windows 98 Second Edition


En 1999 Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica.





Windows Millennium EditionEn 2000


Microsoft introdujo Windows ME que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP.





Windows 2000


En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de redes y con una gran cantidad de servicios de red.





Windows XP


La unión de Windows NT/2000 y Windows 3.1/95/98/SE se alcanzó con [Windows XP]liberado en 2001 en su versión Home y Professional. Windows XP usa el kernel o núcleo de Windows NT.

historia de Linux

Cuando apareció el procesador intel 386 (primer procesador de 32 bits, capaz de ejecutar la multitarea) los ordenadores pasaron de ser un seiscientos a ser un porche, pero en aquel momento el sistema operativo por excelencia era el Dos (16 bits, monotarea ósea que usaba algo así como un porche como si fuese un seiscientos), y por lo que se ha visto Timosoft no se ha decidido hasta ayer prácticamente a crear un sistema operativo de 32 bits ("Windows" 95 0sr2) ya que las primeras versiones de windos 95 era un sistema gráfico ocultando una versión "7" de Dos, (por eso yo lo llamo Windos) una multitarea "simulada" y un intento de multiusuario con la chapuza de contraseñas. Cuando aparecieron los procesadores intel 386 muchos usuarios querían algo que usase lo que había comprado como la pregunta de ¿para que sirven las MMX? cuando aparecieron, la gente que se compra un ordenador quiere sacar todo el partido a lo que han comprado ya, aquí apareció Linux Torvalds
LINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, -como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.
Linus nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribucion...
Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994.
Desde entonces no se ha parado de desarrollar, la version actual del nucleo es la 2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema

¿Cómo está conformado un sistema operativo?

Un sistema operativo está conformado básicamente por cuatro módulos:

  • Núcleo o Kernel.
  • Administrador de memoria.
  • Sistema de entrada/salida.
  • Administrador de archivos.


A veces se considera un quinto módulo: el intérprete de comandos o intérprete de instrucciones, el cual se encarga de "traducir" las órdenes que el usuario ingresa mediante el teclado u otros dispositivos a un "lenguaje" que la máquina pueda entender.

Núcleo


Es el módulo de más bajo nivel de un sistema operativo, pues descansa directamente sobre el hardware de la computadora. Entre las tareas que desempeña se incluyen el manejo de las interrupciones, la asignación de trabajo al procesador y el proporcionar una vía de comunicación entre los distintos programas. En general, el núcleo se encarga de controlar el resto de los módulos y sincronizar su ejecución. El núcleo contiene un submódulo denominado "planificador", el cual se encarga de asignar tiempo del procesador a los programas, de acuerdo a una cierta política de planificación que varía de un sistema operativo a otro. Normalmente se utiliza una jerarquía de prioridades que determinan cómo se asignará el tiempo del CPU a cada programa. Una política de planificación muy común en los sistemas de multiprogramación y multiproceso son las técnicas de "time slicing" (fracción de tiempo). Se asigna a cada programa un corto intervalo de tiempo del procesador. Si el programa no ha terminado durante este intervalo de tiempo, vuelve a la cola de programas.


Administrador de memoria


Este módulo se encarga de asignar ciertas porciones de la memoria principal (RAM) a los diferentes programas o partes de los programas que la necesiten, mientras el resto de los datos y los programas se mantienen en los dispositivos de almacenamiento masivo. De este modo, cuando se asigna una parte de la memoria principal se hace de una forma estructurada, siguiendo un determinado orden. La forma más común de administración de la memoria supone crear una memoria virtual; con este sistema, la memoria de la computadora aparece, para cualquier usuario del sistema, mucho mayor de lo que en realidad es.


Sistema de entrada/salida (E/S)


Este componente presenta al usuario la E/S de datos como una cuestión independiente del dispositivo; es decir, para los usuarios, todos los dispositivos tienen las mismas características y son tratados de la misma forma, siendo el sistema operativo el encargado de atender las particularidades de cada uno de ellos (como su velocidad de operación). Una técnica muy común, especialmente en salida, es el uso de "spoolers". Los datos de salida se almacenan de forma temporal en una cola situada en un dispositivo de almacenamiento masivo (el spool), hasta que el dispositivo periférico requerido se encuentre libre; de este modo se evita que un programa quede retenido porque el periférico no esté disponible. El sistema operativo dispone de llamadas para añadir y eliminar archivos del spool.


Administrador de archivos


Se encarga de mantener la estructura de los datos y los programas del sistema y de los diferentes usuarios (que se mantienen en archivos) y de asegurar el uso eficiente de los medios de almacenamiento masivo. El administrador de archivos también supervisa la creación, actualización y eliminación de los archivos, manteniendo un directorio con todos los archivos que existen en el sistema en cada momento y coopera con el módulo administrador de memoria durante las transferencias de datos desde y hacia la memoria principal. Si se dispone de un sistema de memoria virtual, existen transferencias entre la memoria principal y los medios de almacenamiento masivo para mantener la estructura de la misma.

CARACTERISTICAS

En general, se puede decir que un Sistema Operativo tiene las siguientes características:


  • Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.


  • Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.


  • Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.

  • Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una parte del procesador para poder compartir los recursos.


  • Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.

  • Organizar datos para acceso rápido y seguro.

  • Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.

    Procesamiento por bytes de flujo a través del bus de datos.
    Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.

  • Técnicas de recuperación de errores.

  • Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.


  • Generación de estadísticas.

  • Permite que se puedan compartir el hardware y los datos entre los usuarios.

    El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
    El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
    El Software de base está compuesto por:

  • Cargadores.

  • Compiladores.

  • Ensambladores.

  • Macros.

funciones

Funciones básicas
Los sistemas operativos, motivados por su condición de capa software que posibilita y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en microkernels), podemos reseñar las siguientes:
Gestionar los recursos del equipo ejecutando servicios para los procesos (programas)
Brindar una interfaz al usuario, ejecutando instrucciones (comandos).
Gestor de recursos]


Gestor de Recursos
Como gestor de recursos, el Sistema Operativo administra
El CPU
Los dispositivos de E/S
La memoria.
Las colas de procesos.
Administración de recursos.

martes, 15 de mayo de 2007

clasificacion

Sistemas operativos multiusuario
Los sistemas operativos multiusuario permiten acceder simultáneamente a un sistema de computadoras a través de dos o más terminales. Este tipo de sistema operativo es fundamental en el manejo de redes de computadoras actualmente.

Sistemas operativos de tiempo compartido
Los sistemas operativos de tiempo compartido tratan de proporcionar un reparto equitativo de los recursos comunes para dar la impresión a los usuarios de que poseen una computadora independiente. En estos sistemas el administrador de memoria proporciona aislamiento y protección de los programas, ya que generalmente no tienen necesidad de comunicarse entre ellos. El control de E/S se encarga de proporcionar o retirar la asignación a los dispositivos de forma que se preserve la integridad del sistema y se proporcione servicio a todos los usuarios. El administrador de archivos proporciona protección y control en el acceso de la información, dada la posibilidad de concurrencia y conflictos al tratar de acceder a los archivos.

Sistemas operativos de tiempo real
Estos sistemas tienen como objetivo proporcionar tiempos más rápidos de respuesta, procesar la información sin tiempos muertos. En estos sistemas el administrador de memoria es relativamente menos solicitado debido a que muchos procesos residen permanentemente en memoria. El administrador de archivos se encuentra normalmente en grandes sistemas de tiempo real y su objetivo principal es manejar la velocidad de acceso, más que la utilización eficaz del almacenamiento secundario.