B I E N V E N I D O S AL SITIO DONDE ENCONTRARAS TEMAS DE INFORMATICA

PROTOCOLO PPP

0 Comments »
Point-to-Point Protocol

Point-to-point Protocol, es decir, Protocolo punto a punto, es un protocolo de nivel de enlace estandarizado en el documento RFC 1661. Por tanto, se trata de un protocolo asociado a la pila TCP/IP de uso en Internet. Más conocido por su acrónimo: PPP.

Descripción

El protocolo PPP permite establecer una comunicación a nivel de enlace entre dos computadoras. Generalmente, se utiliza para establecer la conexión a Internet de un particular con su proveedor de acceso a través de un módem telefónico. Ocasionalmente también es utilizado sobre conexiones de banda ancha (como PPPoE o PPPoA). Además del simple transporte de datos, PPP facilita dos funciones importantes:

• Autenticación. Generalmente mediante una clave de acceso.
• Asignación dinámica de IP. Los proveedores de acceso cuentan con un número limitado de direcciones IP y cuentan con más clientes que direcciones. Naturalmente, no todos los clientes se conectan al mismo tiempo. Así, es posible asignar una dirección IP a cada cliente en el momento en que se conectan al proveedor. La dirección IP se conserva hasta que termina la conexión por PPP. Posteriormente, puede ser asignada a otro cliente.
PPP también tiene otros usos, por ejemplo, se utiliza para establecer la comunicación entre un módem ADSL y la pasarela ATM del operador de telecomunicaciones. También se ha venido utilizando para conectar a trabajadores desplazados (p. ej. ordenador portátil) con sus oficinas a través de un centro de acceso remoto de su empresa. Aunque está aplicación se está abandonando en favor de las redes privadas virtuales, más seguras.

Trama PPP

Una trama PPP esta basada en HDLC. Tiene un mínimo de 6 bytes y un máximo indeterminado.

La dirección siempre es 0xFF que es la dirección de difusión estandar de todos los destinos. En PPP no hay direcciones individuales de cada estación dado que sólo hay dos. El campo control vale 0x03, que corresponde con tramas de usuario no númeradas en HDLC. Estos dos campos se pueden eliminar si se negocia en LCP "Address-and-Control-Field-Compression" (ACFC, compresión de los campos de dirección y control).

Los identificadores de protocolo están especificados en el RFC 1661. Los más importantes son:
• 0x0021 para IP.
• 0xc021 para LCP.
• 0xc023 para PAP.
• 0xc223 para CHAP.

El campo FCS (Frame Check Sequence) es una secuencia de comprobación de trama. Se utiliza para detectar errores en la transmisión de la trama. El transmisor calcula el CRC del contenido de la trama y lo coloca en el campo FCS. El receptor calcula el CRC de la trama que recibe y lo compara con el valor que hay en el FCS. Si los valores son distintos, hay bits erróneos en la trama, por lo que se descarta. Si el campo FCS es de 2 bytes se usa un CRC de 16 bits. Si el campo FCS es de 4 bytes, se usa un CRC de 32 bits.

Funcionamiento


Protocolo PPP.

PPP consta de las siguientes fases:

1. Establecimiento de conexión. Durante esta fase, una computadora contacta con la otra y negocian los parámetros relativos al enlace usando el protocolo LCP. Este protocolo es una parte fundamental de PPP y por ello están definidos en el mismo RFC. Usando LCP se negocia el método de autenticación que se va a utilizar, el tamaño de los datagramas, números mágicos para usar durante la autenticación,...

2. Autenticación. No es obligatorio. Existen dos protocolos de autenticación. El más básico e inseguro es PAP, aunque no se recomienda dado que manda el nombre de usuario y la contraseña en claro. Un método más avanzado y preferido por muchos ISPs es CHAP, en el cual la contraseña se manda cifrada.

3. Configuración de red. En esta fase se negocian parámetros dependientes del protocolo de red que se esté usando. PPP puede llevar muchos protocolos de red al mismo tiempo y es necesario configurar individualmente cada uno de estos protocolos. Para configurar un protocolo de red se usa el protocolo NCP correspondiente. Por ejemplo, si la red es IP, se usa el protocolo IPCP para asignar la dirección IP del cliente y sus servidores DNS.

4. Transmisión. Durante esta fase se manda y recibe la información de red. LCP se encarga de comprobar que la línea está activa durante periodos de inactividad. Obsérvese que PPP no proporciona cifrado de datos.

5. Terminación. La conexión puede ser finalizada en cualquier momento y por cualquier
motivo.

PPP tiene todas las propiedades de un protocolo de nivel de enlace:

• Garantía de recepción.
• Recepción ordenada
• Uso del puerto 53 para conexión bidireccional de sockets.

Bibliografia

Obtenido de:
http://es.wikipedia.org/wiki/Point-to-Point_Protocol

MODELO OSI

0 Comments »
Modelo OSI

El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) fue el modelo de red descriptivo creado por la Organización Internacional para la Estandarización lanzado en 1984. Es decir, fue un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.


Pila del modelo OSI.

Modelo de referencia OSI

Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones.

El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes. Este modelo está dividido en siete capas:

Capa física (Capa 1)

Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.

Sus principales funciones se pueden resumir como:
• Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
• Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
• Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
• Transmitir el flujo de bits a través del medio.
• Manejar las señales eléctricas/electromagnéticas
• Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
• Garantizar la conexión (aunque no la fiabilidad de ésta).

Capa de enlace de datos (Capa 2)

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo.

Capa de red (Capa 3)

El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.

Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.

En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte (Capa 4)

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión.

Capa de sesión (Capa 5)

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre los dos computadores que están transmitiendo datos de cualquier índole.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación (Capa 6)

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.

Capa de aplicación (Capa 7)

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

Unidades de datos

El intercambio de información entre dos capas OSI consiste en que cada capa en el sistema fuente le agrega información de control a los datos, y cada capa en el sistema de destino analiza y remueve la información de control de los datos como sigue:

Si un ordenador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento, es decir, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información.



N-PDU (Unidad de datos de protocolo)

Es la información intercambiada entre entidades pares, es decir, dos entidades pertenecientes a la misma capa pero en dos sistemas diferentes, utilizando una conexión (N-1).

Está compuesta por:

N-SDU (Unidad de datos del servicio)
Son los datos que se necesitan la entidades (N) para realizar funciones del servicio pedido por la entidad (N+1).

N-PCI (Información de control del protocolo)
Información intercambiada entre entidades (N) utilizando una conexión (N-1) para coordinar su operación conjunta.

N-IDU (Unidad de datos de interface)
Es la información transferida entre dos niveles adyacentes, es decir, dos capas contiguas.
Está compuesta por:

N-ICI (Información de control del interface)
Información intercambiada entre una entidad (N+1) y una entidad (N) para coordinar su operación conjunta.

Datos de Interface-(N)

Información transferida entre una entidad-(N+1) y una entidad-(N) y que normalmente coincide con la (N+1)-PDU.

Transmisión de los datos



Transferencia de información en el modelo OSI.


Bibliografia

Obtenido de:
http://es.wikipedia.org/wiki/Modelo_OSI
17:57

CLASIFICACION DE LAS REDES

0 Comments »
Clasificación de redes

Por alcance:

Red de área personal (PAN)
Red de área local (LAN)
Red de área de campus (CAN)
Red de área metropolitana (MAN)
Red de área amplia (WAN)
Red de área simple (SPL)
Red de área de almacenamiento (SAN)

Por método de la conexión:

Medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables.
Medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas.

Por relación funcional:

Cliente-servidor
Igual-a-Igual (p2p)



Arquitecturas de red.

Por Topología de red:
Red en bus
Red en estrella
Red en anillo (o doble anillo)
Red en malla (o totalmente conexa)
Red en árbol
Red mixta (cualquier combinación de las anteriores)

Por la direccionalidad de los datos (tipos de transmisión)

Simplex (unidireccionales): un Equipo Terminal de Datos transmite y otro recibe. (p. ej. streaming)
Half-Duplex (bidireccionales): sólo un equipo transmite a la vez. También se llama Semi-Duplex (p. ej. una comunicación por equipos de radio, si los equipos no son full dúplex, uno no podría transmitir (hablar) si la otra persona está también transmitiendo (hablando) porque su equipo estaría recibiendo (escuchando) en ese momento).
o Full-Duplex (bidireccionales): ambos pueden transmitir y recibir a la vez una misma información. (p. ej. videoconferencia).

Clasificación de las redes de ordenadores

Por capa de red

clasificar según la capa de red en la cual funcionan según algunos modelos de la referencia básica que se consideren ser estándares en la industria tal como el modelo OSI de siete capas y el modelo del TCP/IP de cinco capas.

Por la escala

Las redes de ordenadores se pueden clasificar según la escala o el grado del alcance de la red, por ejemplo como red personal del área (PAN), la red de área local (LAN), red del área del campus (CAN), red de área metropolitana (MAN), o la red de área amplia (WAN).

Por método de la conexión

Las redes de ordenadores se pueden clasificar según la tecnología que se utiliza para conectar los dispositivos individuales en la red tal como HomePNA, línea comunicación, Ethernet, o LAN sin hilos de energía.

Por la relación funcional

Las redes de computadores se pueden clasificar según las relaciones funcionales que existen entre los elementos de la red, servidor activo por ejemplo del establecimiento de una red, de cliente y arquitecturas del Par-a-par (workgroup). También, las redes de ordenadores son utilizadas para enviar datos a partir del uno a otro por el hardrive.

Por topología de la red

Define como están conectadas computadoras, impresoras, dispositivos de red y otros dispositivos. En otras palabras, una topología de red describe la disposición de los cables y los dispositivos, así como las rutas utilizadas para las transmisiones de datos. La topología influye enormemente en el funcionamiento de la red.

Las topologías son las siguientes: bus, anillo o doble anillo, estrella, estrella extendida, jerárquica y malla.

Por los servicios proporcionados

Las redes de ordenadores se pueden clasificar según los servicios que proporcionan, por ejemplo redes del almacén, granjas del servidor, redes del control de proceso, red de valor añadido, red sin hilos de la comunidad, etc.

Por protocolo

Las redes de ordenadores se pueden clasificar según el protocolo de comunicaciones que se está utilizando en la red. Ver los artículos sobre la lista de los apilados del protocolo de red y la lista de los protocolos de red.

Bibliografía

Groth, David; Toby Skandier (2005). “Guía del estudio de redes, cuarta edición”. Sybex, Inc. ISBN 0-7821-4406-3.

Obtenido de:
http://es.wikipedia.org/wiki/Red_de_computadoras

HARDWARE DE REDES

0 Comments »
Hardware para redes

En general tenemos gran variedad de hardware usado en comunicaciones, enrutadores, commutadores, repetidores, concentradores, puentes, servidores, terminales, multiplexores, conectores, cables, entre muchos otros mas. En esta sección voy a explicarles que función tiene cada uno de ellos.

ROUTER o ENCAMINADOR: Es un dispositivo que conecta dos redes locales y es el responsable de controlar el tráfico entre ellas y de clasificarlo. En sistemas complejos suele ser un filtro de seguridad para prevenir daños en la red local. Es posible conectar varias redes locales de forma que los ordenadores o nodos de cada una de ellas tenga acceso a todos los demás.

Estos dispositivos operan en el tercer nivel de red ( Capa de Red ) del modelo OSI, y enlazan los tres primeros niveles de este modelo. Los routers redirigen paquetes de acuerdo al método entregado por los niveles mas altos. Actualmente, son capaces de manejar un protocolo o varios protocolos a la vez.

Son también llamados sistemas intermediarios. Originalmente, fueron usados para interconectar múltiples redes corriendo el mismo protocolo de alto nivel ( por ejemplo; TCP/IP) con múltiples caminos de transmisión origen/destino. Entre los más usados en la actualidad se encuentran los de la empresa CISCO.

CONSIDERACIONES DE RUTEO:

Ruteo Estático: Ocurre cuando uno requiere predefinir todas las rutas a las redes destinos.

Ruteo Dinámico: Ocurre cuando la información de ruteo es intercambiada periódicamente entre los routers. permite rutear información basada en el conocimiento actual de la topología de la red.

Sobrecarga: Al intercambiar la información de ruteo entre router y actualizar las tablas de rutas internas, requiere una cierta cantidad de recursos adicionales. Estos recursos no son directamente involucrados en mover directamente información útil del usuario, esto pasa a ser un requerimiento adicional y son por lo tanto considerados como sobrecargas. esta puede influir sobre trafico de red, memoria y CPU

ALGORITMO DE RUTEO:

Existen dos categorías de ruteo:
1. Algoritmo de Vector de Distancia ( RIP )
2. Algoritmo de Estado del Enlace ( OSPF )

Cada uno tiene sus propias ventajas y desventajas. en muchos casos el usuario no tomará la decisión de cual escoger, ya que normalmente el protocolo de ruteo seleccionado asocia directamente el uso de estos algoritmos.

VENTAJAS Y DESVENTAJAS DEL USO DE ROUTERS:

Los routers son configurables. Esto permite al administrador tomar decisiones de ruteo (rutas estáticas en caso de fallas) , así como hacer sincronización del desempeño de la interred.

Son relativamente fáciles de mantener una vez configurados, ya que muchos protocolos pueden actualizar sus tablas de ruta de una manera dinámica.

Los routers proveen características entre intereses, esto previene incidentes que pudieran ocurrir en una sub red, afectando a otras sub redes. Así como también previene la presencia de intrusos.

Los routers no son afectados por los contrastes de los tiempos de retardos como ocurre en los bridges. Esto significa que los routers no están limitados topológicamente.

Los routers son inteligentes y pueden seleccionar el camino más aconsejable entre dos o más conexiones simultaneas. Esto además permite hacer balances de la carga lo cual alivia las congestiones. Dentro de las desventajas se pueden mencionar que requieren una cantidad significativa de tiempo para instalarlos y configurarlos dependiendo de la topología de la red y de los protocolos usados. Los routers son dependientes del protocolo, cada protocolo a rutear debe ser conocido por el router. Tienen un mayor costo que los Bridges y son más complejos.

CONFIGURANDO UN ROUTER PARA EL TRAFICO DE RED:

El router trabaja en dos ambientes:
1. Un ambiente enable o de privilegios, en el cual se puede cambiar la configuración. Generalmente para ingresar al modo enable se requiere de un password.
2. Un ambiente de consulta o terminal virtual donde se accesa sólo a los comandos de consulta.

Para iniciar la configuración de un router, debemos encender el equipo que no tiene configuración, y entrar a un ambiente setup, el cual muestra un dialogo interactivo con el usuario para configurar los parámetros básicos y de configuración de interfaces de red.

1.- VERIFICACION DE LA CONEXION:
Dependiendo del ambiente de trabajo (consulta o enable) es la lista de comandos que se despliega. De todos esos comandos, es necesario ver algunos de interés.

2.- COMANDO SHOW:
Permite consultar por una serie de estados y configuraciones del router. Para saber cuales son los parametros que tiene el comando show, bastara con teclear:
show?

Algunas opciones del comando show, son las siguientes:
• show config : permite ver el archivo de configuración, sin entrar a editarlo.
• show ip route : Permite ver las rutas estáticas definidas y las dinámicas que el router ha aprendido. Las rutas estáticas se diferencian por la letra "s" al comienzo de la línea donde se despliega.
• show ip protocolo: permite ver los protocolos usados.
• show interface: permite ver el estado de las interfaces.

BRIGDE O PUENTE: Unidad Funcional que interconecta dos redes de área local que utilizan el mismo protocolo de control de enlace lógico pero distintos protocolos de control de acceso al medio. Operan en el nivel 2 de OSI ( Capa de Enlace de Datos). Estos equipos unen dos redes actuando sobre los protocolos de bajo nivel. Solo el tráfico de una red que va dirigido a la otra atraviesa el dispositivo. Esto permite a los administradores dividir las redes en segmentos lógicos, descargando de tráfico las interconexiones. Los bridges producen las señales, con lo cual no se transmite ruido a través de ellos.

BROUTER: Este es un dispositivo que realiza las funciones de un brigde y un router a la vez.

HUB O CONCENTRADOR: En un equipo integrador para diversos tipos de cables y de arquitectura que permite estructurar el cableado de las redes. La variedad de tipos y características de estos equipos es muy grande. En un principio eran solo concentradores de cableado, pero cada vez disponen de mayor número de capacidad de la red, gestión remota, etc.
La tendencia es a incorporar más funciones en el concentrador. Existen concentradores para todo tipo de medios físicos. Generalmente te indican la actividad de la red, velocidad y puertos involucrados. Su funcionamiento es simple, se lleva hasta el un cable con la señal a transmitir y desde el se ramifican mas señales hacia otros nodos o puertos. Entre los fabricantes que producen gran variedad de estos equipos se encuentran las empresas 3COM y Cisco

REPETIDOR: Es un equipo que actúa a nivel físico. Prolonga la longitud de la red uniendo dos segmentos, amplificando, regenerando y sincronizando la señal. La red sigue siendo una sola, con lo cual, siguen siendo válidas las limitaciones en cuanto al número de estaciones que pueden compartir el medio. Una desventaja de estos equipos es que también amplifican el ruido que pueda venir con la señal.

GATEWAY: Es un equipo para interconectar redes con protocolos y arquitecturas completamente diferentes, a todos los niveles de comunicación. La traducción de las unidades de información reduce mucho la velocidad de transmisión a través de estos equipos. En realidad es una puerta de acceso, teniendo lugar una conversión completa de protocolos hasta la capa 7 ( Capa de Aplicación) del modelo de referencia OSI.

MODEM: Es un dispositivo que permiten a las computadoras comunicarse entre sí a través de líneas telefónicas, esta comunicación se realiza a través de la modulación y demodulación de señales electrónicas que pueden ser procesadas por computadoras, las señales analógicas se convierten en digitales y viceversa. Los modems pueden ser externos o internos dependiendo de su ubicación física en la red. Entre los mayores fabricantes tenemos a 3COM, AT&T, Motorola, US Robotics y NEC.

La transmisión por modem se divide en tres tipos:

SIMPLEX: Permite enviar información solo en un sentido.

HALF DUPLEX: Permite enviar información en ambos sentidos pero no a la misma vez.

FULL DUPLEX: Permite enviar información en ambos sentidos simultaneamente.
NIC / MAU: Son tarjetas de interface de red (Network Interface Card o NIC) o también se le denominan unidades de acceso al medio (Medium Access Unit o MAC). Cada computadora necesita el “hardware” para transmitir y recibir información. Es el dispositivo que conecta la computadora u otro equipo de red con el medio físico. La NIC es un tipo de tarjeta de expansión de la computadora y proporciona un puerto en la parte trasera de ella al cual se conecta el cable de la red. Hoy en día cada vez son más los equipos que disponen de interfaz de red, principalmente Ethernet, incorporadas. A veces, es necesario, además de la tarjeta de red, un
TRANCEPTOR. Este es un dispositivo que se conecta al medio físico y a la tarjeta, bien porque no sea posible la conexión directa (10base 5) o porque el medio sea distinto del que utiliza la tarjeta. también se le denomina MAC al protocolo empleado para la propagación de las señales eléctricas. Define el subnivel inferior de la capa 2 del modelo OSI (Capa de Enlace).

SERVIDORES: Son equipos que permiten la conexión a la red de equipos periféricos tanto para la entrada como para la salida de datos. Estos dispositivos se ofrecen en la red como recursos compartidos. Así un terminal conectado a uno de estos dispositivos puede establecer sesiones contra varios ordenadores multiusuarios disponibles en la red. La administración de la red se realiza a través de estos equipos tanto para archivos, impresión y aplicaciones entre otros. Entre las empresas pioneras en la fabricación de potentes servidores tenemos a la IBM, Hewlett Packard y Compaq.

CABLES Y CONECTORES: A estos elementos le dedicamos una sección individual y mas completa la cual puedes encontrar en la página principal.

MULTIPLEXOR (MPX): Es también conocido como Concentrador (de líneas). Es un dispositivo que acepta varias líneas de datos a la entrada y las convierte en una sola línea corriente de datos compuesta y de alta velocidad. Esto hace la función de transmitir "simultáneamente" sobre un mismo medio varias señales.

MULTIPLEXOR (MUX): Es un equipo cuya función es la de seleccionar entre varias entradas una de ellas a la salida. Generalmente el Multiplexor esta unido a otros equipos como un modem o también un switch. Los multiplexores son circuitos realmente importantes en el diseño de sistemas que requieran un cierto tráfico y comunicación entre distintos componentes y se necesite controlar en todo momento que componente es quien envía los datos. En realidad se puede asimilar a un selector, ya que por medio de unas entradas de control se selecciona la entrada que se desee reflejada en la salida.

Esto se consigue utilizando principalmente puertas XOR, de ahi su nombre multiple_xor. Entre algunos fabricantes de multiplexores tenemos a General DataComm, Rad, Pan Datel, Ascom, Timeplex y Siliconix.

En el mercado se encuentran todo tipo de modelos con diversidad de anchos de entradas (por ejemplo MUXs de 2 entradas de buses de 8 bits y 1 salida de 8 bits, con lo que se estaría conmutando entre 2 buses de 2 dispositivos de 8 bits). Además de lo anterior, suele ser un hábito que exista también una entrada de Enable (habilitación general de integrado). Existen varios tipos de multiplexores:

MULTIPLEXOR DE DIVISION DE TIEMPO: Multiplexor que asigna determinado tiempo a una entrada para enviar el tráfico hasta la salida. Siempre se asignara ese lapso de tiempo aunque no exista tráfico. La multiplexación bajo este modelo se le conoce como TDM (Time Division Multiplexing).

MULTIPLEXOR ESTADISTICO: Multiplexor de división de tiempo, que asigna en forma "estadística", la rebanada de tiempo al siguiente dispositivo conectado, es decir, el determina cual de las entradas se requiere en la salida y se basa en al tráfico generado por dichas entradas. Si una entrada no genera tráfico le da la oportunidad a otra que si lo genere. La multiplexación bajo este modelo se le conoce como SDM (Statistical Division Multiplexing).

MULTIPLEXOR DE FRECUENCIAS: Multiplexor que permite que varias entradas simultáneas puedan transmitir datos a una única salida pero en diferentes frecuencias. Se define un ancho de banda para tal fin, el cual se reparte entre las entradas existentes en un mismo lapso de tiempo. La multiplexación bajo este modelo se le conoce como FDM (Frecuency Division Multiplexing).

MULTIPLEXOR INVERSO: El multiplexor inverso se utiliza para la transmisión de un canal de datos de alta velocidad por dos o más redes WAN de velocidad más baja. Uno de los multiplexores inversos subdivide el canal de datos de alta velocidad entre todos los enlaces de velocidad más baja. Otra unidad reconstruye la señal original en el extremo remoto. El multiplexor inverso se sobrepone a las eventuales diferencias de retardo entre los distintos canales por medio de buffers internos. La norma BONDING define el multiplexado inverso a 64 KBps y tiene 3 distintos tipos de implementación.

Los multiplexores inversos pueden dividirse en dos tipos principales:
1. Multiplexores inversos de ancho de banda permanente, cuya aplicación primaria es la de brindar un tubo de datos WAN de alta velocidad cuando sólo hay disponibles enlaces WAN de velocidad inferior. Una aplicación típica sería brindar un acceso de alta velocidad a internet cuando solo hay líneas E1 o T1 disponibles.
2. Multiplexores inversos de ancho de banda conmutado, los cuales agregan o reducen ancho de banda según sea necesario. Las aplicaciones principales para dichos multiplexores inversos comprenden ancho de banda a demanda y transferencia automática en caso de fallas ("backup") de linea arrendada. Un ejemplo de ancho de banda a demanda sería el agregar enlaces ISDN BRI – además del ancho de banda básico arrendado en forma permanente – durante los intervalos de maxímo tráfico, a fin de mantener el nivel de desempeño y el tiempo de respuestas exigidos. Los enlaces ISDN se eliminan posteriormente, durante los intervalos de bajo tráfico.

Otra aplicación de los multiplexores inversos la constituye la transferencia automática de líneas digitales/arrendadas de alta velocidad. Muchas organizaciones se ven atrapadas entre la necesidad de mantener sus redes WAN funcionando el 100% del tiempo y el alto costo de adquirir un enlace WAN adicional con fines de transferencia automática ante falla. En este caso, un multiplexor inverso puede discar números enlaces ISDN BRI cuando se exige redundancia y así superar las limitaciones de velocidad de un único enlace, brindando una solución de bajo costo y elevadas prestaciones. Otra aplicacion es el de discar enlaces de alta velocidad tales como los requeridos para videoconferencias de alta calidad.

SWITCH O CONMUTADOR: Es un dispositivo de switcheo modular que proporciona conmutados de alta densidad para interfaces Ethernet y Fast Ethernet Proporciona la posibilidad de trabajar en redes LAN virtuales y la posibilidad de incorporar conmutación múltiple con el Sistema Operativo de Cisco Internetwork. El diseño modular permite dedicar conexiones Ethernet de 10Mbps y conexiones Fast Ethernet de 100Mbps a segmentos LAN, estaciones de alto rendimiento y servidores, usando par trenzado sin apantallamiento, par trenzado apantallado y fibra optica. Permiten una amplia velocidad de conmutación entre Ethernet y Fast Ethernet a través de una amplia gama de interfaces que incluyen Fast Ethernet, Interfaces de Distribución de Datos por Fibra (FDDI) y ATM.

Uno de estos equipos más utilizados es el LightStream 1010 de Cisco, es un conmutador ATM. Se trata del primero de una serie de nuevos conmutadores de esa empresa que representa la próxima generación de sistemas de conmutadores ATM para redes de grupos de trabajos y campus (LAN). El 1010 admite dos posibilidades para las conexiones, una con circuitos virtuales permanentes (PVC) en el cual las conexiones se crean manualmente y circuitos virtuales conmutados (SVC) en el cual las conexiones se hacen automáticamente.
Los conmutadores ocupan el mismo lugar en la red que los concentradores. A diferencia de los concentradores, los conmutadores examinan cada paquete y lo procesan en consecuencia en lugar de simplemente repetir la señal a todos los puertos. Los conmutadores trazan las direcciones Ethernet de los nodos que residen en cada segmento de la red y permiten sólo el tráfico necesario para atravesar el conmutador. Cuando un paquete es recibido por el conmutador, el conmutador examina las direcciones hardware (MAC) fuente y destino y las compara con una tabla de segmentos de la red y direcciones. Si los segmentos son iguales, el paquete se descarta ("se filtra"); si los segmentos son diferentes, entonces el paquete es "remitido" al segmento apropiado. Además, los conmutadores previenen la difusión de paquetes erróneos al no remitirlos.

Los factores que afectan la eficacia de una red son: la cantidad de tráfico, número de nodos, tamaño de los paquetes y el diámetro de la red, por lo que usar conmutadores presenta muchas ventajas, ya que aislan el tráfico y aislan la congestión, separan dominios de colisión reduciendolas, segmentan, reiniciando las normas de distancia y repetidores.

La congestión en una red conmutada, normalmente puede ser aliviada agregando más puertos conmutados, y aumentando la velocidad de estos puertos. Los segmentos que experimentan congestión son identificados por su utilización y la tasa de colisión, y la solución es una nueva segmentación o conexiones más rápidas. Tanto los puertos conmutados Fast Ethernet, como los Ethernet pueden ser añadidos por debajo de la estructura del árbol de la red para aumentar las prestaciones.

Bibligrafia:

Obtenido de:
http://www.angelfire.com/wi/ociosonet/14.html

ARQUITECTURA DE REDES

0 Comments »
ARQUITECTURA DE REDES

Concepto de Arquitectura

La arquitectura de red es el medio mas efectivo en cuanto a costos para desarrollar e implementar un conjunto coordinado de productos que se puedan interconectar. La arquitectura es el “plan” con el que se conectan los protocolos y otros programas de software. Estos es benéfico tanto para los usuarios de la red como para los proveedores de hardware y software.

Caracteristicas de la Arquitectura

• Separación de funciones. Dado que las redes separa los usuarios y los productos que se venden evolucionan con el tipo, debe haber una forma de hacer que las funciones mejoradas se adapten a la ultima . Mediante la arquitectura de red el sistema se diseña con alto grado de modularidad, de manera que los cambios se puedan hacer por pasos con un mínimo de perturbaciones.
• Amplia conectividad. El objetivo de la mayoría de las redes es proveer conexión optima entre cualquier cantidad de nodos, teniendo en consideración los niveles de seguridad que se puedan requerir.
• Recursos compartidos. Mediante las arquitecturas de red se pueden compartir recursos tales como impresoras y bases de datos, y con esto a su vez se consigue que la operación de la red sea mas eficiente y económica.
• Administración de la red. Dentro de la arquitectura se debe permitir que el usuario defina, opere, cambie, proteja y de mantenimiento a la de.
• Facilidad de uso. Mediante la arquitectura de red los diseñadores pueden centra su atención en las interfaces primarias de la red y por tanto hacerlas amigables para el usuario.
• Normalización. Con la arquitectura de red se alimenta a quienes desarrollan y venden software a utilizar hardware y software normalizados. Mientras mayor es la normalización, mayor es la colectividad y menor el costo.
• Administración de datos. En las arquitecturas de red se toma en cuenta la administración de los datos y la necesidad de interconectar los diferentes sistemas de administración de bases de datos.
• Interfaces. En las arquitecturas también se definen las interfaces como de persona a red, de persona y de programa a programa. De esta manera, la arquitectura combina los protocolos apropiados (los cuales se escriben como programas de computadora) y otros paquetes apropiados de software para producir una red funcional.
• Aplicaciones. En las arquitecturas de red se separan las funciones que se requieren para operar una red a partir de las aplicaciones comerciales de la organización. Se obtiene mas eficiencia cuando los programadores del negocio no necesitan considerar la operación.

Tipos de Arquitectura

Arquitectura SRA

Con la ASR se describe una estructua integral que provee todos los modos de comunicacion de datos y con base en la cual se pueden planear e implementar nuevas redes de comunicacion de datos. La ASR se construyo en torno a cuatro pricipios basicos: Primero, la ASR comprende las funciones distribuidas con base en las cuales muchas responsabilildades de la red se puede mover de la computadora central a otros componentes de la red como son los concentradores remotos. Segundo, la ASR define trayectorias ante los usuarios finales (programas, dispositivos u operadores) de la red de comunicaion de datos en forma separada de los usuarios mismos, lo cual permite hacer extensiones o modificaciones a la configuracion de la red sin afectar al usuario final. Tercero, en la ASR se utiliza el principi de la independencia de dispositivo, lo cual permite la comunicacion de un programa con un dispositivo de entrada / salida sin importar los requrimientos de cualquier dispositivo unico. Esto tambien permite añadir o modificar programas de aplicacion y equipo de comunicacion sin afectar a otros elementos de la red de comunicacion. Cuarto, en la ASR se utilizan funciones y protocolos logicos y fisicos normalizado para la comunicacion de informacion entre dos puntos cualesquiera, y esto siginifca que se puede tener una arquitectura de proposito general y terminales industriales de muchas variedades y un solo protocolo de red.

Arquitectura de Red Digital (DRA).- Esta es una arquitectura de red distribuida de la Digital Equipment Corporation. Se le llama DECnet y consta de cinco capas. Las capas fisica, de control de enlace de datos, de transporte y de servicios de la red corresponden casi exactamente a las cuatro capas inferiores del modelo OSI. La quinta capa, la de aplicación, es una mezcla de las capas de presentacion y aplicación del modelo OSI. La DECnet no cuenta con una capa de sesion separada.

Arcnet

La Red de computacion de recursos conectadas (ARCNET, Attached Resource Computing Network) es un sistema de red banda base, con paso de testigo (token) que ofrece topologias flexibles en estrella y bus a un precio bajo. Las velocidades de transmision son de 2.5 Mbits/seg.
ARCNET usa un protocolo de paso de testigo en una topologia de red en bus con testigo, pero ARCNET en si misma no es una norma IEEE. En 1977, Datapoint desarrollo ARCNET y autorizo a otras compañias. En 1981, Standard Microsystems Corporation (SMC) desarrollo el primer controlador LAN en un solo chip basado en el protocolo de paso de testigo de ARCNET. En 1986 se introdujo una nueva tecnologia de configuracion de chip.

Ethernet

• Desarrollado por la compañía XERTOX y adoptado por la DEC (Digital Equipment Corporation), y la Intel, Ethernet fue uno de los primero estándares de bajo nivel. Actualmente es el estándar mas ampliamente usado.
• Ethernet esta principalmente orientado para automatización de oficinas, procesamiento de datos distribuido, y acceso de terminal que requieran de una conexión económica a un medio de comunicación local transportando trafico a altas velocidades
• Este protocolo esta basado sobre una topología bus de cable coaxial, usando CSMA/CD para acceso al medio y transmisión en banda base a 10 MBPS. Además de cable coaxial soporta pares trenzados. También es posible usar Fibra Optica haciendo uso de los adaptadores correspondientes.
• Además de especificar el tipo de datos que pueden incluirse en un paquete y el tipo de cable que se puede usar para enviar esta información, el comité especifico también la máxima longitud de un solo cable (500 metros) y las normas en que podrían usarse repetidores para reforzar la señal en toda la red.

Modelo OSI

El modelo OSI surge como una búsqueda de solución al problema de incompatibilidad de las redes de los años 60. Fue desarrollado por la ISO (International Organization for Standardization) en 1977 y adoptado por UIT-T.
Consiste de una serie de niveles que contienen las normas funcionales que cada nodo debe seguir en la Red para el intercambio de información y la ínter- operabilidad de los sistemas independientemente de suplidores o sistemas. Cada nivel del OSI es un modulo independiente que provee un servicio para el nivel superior dentro de la Arquitectura o modelo.

Modelo SNA

El modelo SNA tiene las siguientes características:
• Permite compartir recursos
• Reconoce perdida de datos durante la transmisión, usa procedimientos de control de flujo, evade sobrecarga y la congestión, reconoce fallos y hace corrección de errores.
• Provee interfaces abiertas documentadas.
• Simplifica la determinación de problemas gracias a los servicios de administración de la red.
• Mantiene una arquitectura abierta.
• Provee facilidad de interconexión de redes
• Provee seguridad a través de rutinas de logon y facilidades de encryptamiento
• Usa Synchronous Data Link Control (SDLC)

Bibliografia

Obtenido de:
http://html.rincondelvago.com/arquitectura-de-redes.html

SERVICIOS BASICOS DE UN SISTEMA OPERATIVO

0 Comments »
Servicios del Sistema Operativo

Como ya se indicó, una de las dos funciones principales de un sistema operativo es servir de máquina ampliada o virtual, brindando facilidades a los programas de los usuarios y a estos.

Para lograr este objetivo, los sistemas operativos se encargan de programar el trabajo con los diferentes dispositivos existentes en el sistema de cómputo, separando a los usuarios y programas de esta tarea compleja y tediosa.

Los servicios a usuarios se brindan, básicamente, por medio de los llamados Programas del Sistema, mientras que a los programas se les brindan a través de las Llamadas al Sistema.

Los programas del sistema constituyen una colección más o menos grande de programas (no funciones o subrutinas) suministradas por el fabricante (u otra empresa) que permite realizar operaciones que son comunes a diferentes usuarios, brindando un ambiente más adecuado para el desarrollo y explotación de aplicaciones.

Los programas del sistema pueden ser divididos en varias categorías, aunque esto también depende de cada sistema operativo. Algunos posibles grupos serian : Manipulación de ficheros (crear, eliminar, renombrar, imprimir, etc.), obtención de información de estado (fecha, hora, memoria disponible, espacio en disco, etc.), editores de texto, etc.

En resumen, los programas del sistema son aquellos que ejecutan las acciones descritas en los comandos de éste o que aparecen en los menús en el caso de las interfaces gráficas.

Las llamadas al sistema constituyen la interface entre el sistema de operación y los procesos.
Estas generalmente se hacen por medio de instrucciones en lenguaje ensamblador, aunque en algunos casos existen facilidades que permiten se realicen desde lenguajes de alto nivel.

En el segundo caso antes indicado, se dan las variantes de que existan funciones o procedimientos predefinidos en biblioteca que realicen las llamadas al sistema como tal (UNIX, Windows) o el compilador genera directamente las instrucciones necesarias para esto.

Los mecanismos que ponen en ejecución las llamadas al sistema operativo difieren de uno a otro:

• En el OS/360 existe una instrucción especial (SVC) que provoca una trampa hacia el sistema.

El número de la llamada se da en la instrucción.

• En el CP/M no existe una instrucción especial y por ello el número de la llamada se pone en el registro C y se salta a la dirección 5 de la memoria.
• En MS-DOS se utiliza la instrucción INT seguida de un número de interrupción (21H).

En todos los casos antes indicados, se requiere de la transferencia de parámetros desde o hacía el procedimiento que instrumenta la llamada. Este pase de parámetros se ejecuta a través de los registros del procesador o por medio de un bloque o tabla de memoria (pasándose la dirección en un registro).

El número de llamadas, la forma y tipo de cada una y los posibles agrupamientos de estas dependen de cada sistema de operación en específico, aunque en forma general se pudieran catalogar en 4 grupos:

• Control de procesos.
Incluyen operaciones con los procesos tales como: Crear, eliminar, finalizar, abortar, ejecutar, enviar señal, esperar por señal, etc.
• Manipulación de ficheros.
Incluyen operaciones con los ficheros tales como: Crear, eliminar, abrir, cerrar, renombrar, leer, escribir, etc.
• Manipulación de dispositivos.
Incluyen operaciones con los dispositivos tales como: Solicitar, liberar, leer, escribir, etc.
• Intercambio de información.
Incluyen operaciones tales como: Conocer la fecha, conocer la hora, conocer atributos de ficheros, fijar atributos de ficheros, fijar la fecha, etc.
Además de los grupos antes indicados podría haber otros u otras operaciones dentro de estos. Otros conjuntos podrían ser:
• Manipulación de directorios y sistemas de ficheros.
• Protección.
• Señalización.

La mejor manera de entender la esencia de las llamadas al sistema consiste en hacer una revisión detallada de las que están presentes en uno o varios sistemas operativos y por ello se recomienda revisar las páginas de la 23 a la 36 del segundo libro de Tanenbaum, donde se presenta la explicación de las más importantes presentes en la versión 7 del UNIX.

Bibliografía
• Sistemas Operativos Modernos, Andrew S. Tanenbaum, pág. 13-27.
• Operating system Design and Implementation, Tanenbaum, pág. 14-42.
• Operating System Concepts, Peterson and Silberchatz, pág. 39-54
http://www.monografias.com/trabajos81/conceptos-fundamentales-servicios-sistema-operativo/conceptos-fundamentales-servicios-sistema-operativo.shtml

ADMINISTRACION DE MEMORIA

0 Comments »
Administrador De La Memoria

El Administrador De Memoria se refiere a los distintos métodos y operaciones que se encargan de obtener la máxima utilidad de la memoria, organizando los procesos y programas que se ejecutan de manera tal que se aproveche de la mejor manera posible el espacio disponible.

Para poder lograrlo, la operación principal que realiza es la de trasladar la información que deberá ser ejecutada por el procesador, a la memoria principal. Actualmente esta administración se conoce como Memoria Virtual ya que no es la memoria física del procesador sino una memoria virtual que la representa. Entre algunas ventajas, esta memoria permite que el sistema cuente con una memoria más extensa teniendo la misma memoria real, con lo que esta se puede utilizar de manera más eficiente. Y por supuesto, que los programas que son utilizados no ocupen lugar innecesario.

Las técnicas que existen para la carga de programas en la memoria son: partición fija, que es la división de la memoria libre en varias partes (de igual o distinto tamaño) y la partición dinámica, que son las particiones de la memoria en tamaños que pueden ser variables, según la cantidad de memoria que necesita cada proceso.

Entre las principales operaciones que desarrolla la administración de memoria se encuentran la reubicación, que consiste en trasladar procesos activos dentro y fuera e la memoria principal para maximizar la utilización del procesador; la protección, mecanismos que protegen los procesos que se ejecutan de interferencias de otros procesos; uso compartido de códigos y datos, con lo que el mecanismo de protección permite que ciertos procesos de un mismo programa que comparten una tarea tengan memoria en común.

ADMINISTRADOR DE LA MEMORIA

La administración de memoria se refiere a los distintos métodos y operaciones que se encargan de obtener la máxima utilidad de la memoria, organizando los procesos y programas que se ejecutan de manera tal que se aproveche de la mejor forma posible el espacio disponible.

Existen cuatro tipos de esquema s de asignación de memoria, estos esquemas de la administración de la memoria rara vez se utilizan en los sistemas operativos actuales.

Configuración de un solo usuario
Particiones fijas
Particiones dinámicas
Particiones dinámicas reubicables

Ya que estos eran utilizados en los primeros sistemas de computo. Pero es importante su estudio, ya que cada uno introdujo conceptos fundamentales que ayudaron a la evolución de la administración de la memoria.

ESQUEMA CONTIGUO DE USUARIO UNICO

El primer esquema de asignación de la memoria funcionaba de la siguiente manera:

Cada programa que se iba a procesar se cargaba completo en memoria y se le asignaba tanto espacio contiguo necesitara.

Si el programa era demasiado grande y no cabía en el espacio de memoria disponible, no se podía ejecutar. A pesar de que las primeras computadoras eran demasiado grandes tenían muy poca memoria.

Esto demuestra un factor limitante para todas las computadoras, tiene una cantidad finita de memoria y si un programa no cabe, hay que incrementar el tamaño de la memoria principal o modificar el programa.

PARTICIONES FIJAS

El primer intento para posibilitar la multiprogramación fue la creación de las particiones fijas o estáticas, en la memoria principal, una partición para cada tarea. El tamaño de la partición se especificaba al encender el sistema, cada partición podía reconfigurarse al volver encender el sistema o reiniciar el sistema.

Este esquema introdujo un factor esencial, la protección del espacio de memoria para la tarea. Una vez asignada una partición a una tarea, no se permitía que ninguna otra tarea entrara en sus fronteras.

Este esquema de partición es mas flexible que la de usuario único, por que permite que varios programas estén en memoria al mismo tiempo.

PARTICIONES DINÁMICAS

Con las particiones dinámicas, la memoria principal disponible aun se conserva en bloques contiguos, pero a las tareas nada mas se les da memoria que solicitan cuando se cargan para su procesamiento. Aunque es una mejoría significativa en relación con las particiones fijas, no se elimina el problema de las mismas.

Un esquema de particiones dinámicas utiliza toda la memoria al cargar las primeras tareas, pero conforme entran nuevas tareas en el sistema que no son del mismo tamaño de las que acaban de salir de la memoria se acomodan en los espacios disponibles de acuerdo con su prioridad.

PARTICIONES DINÁMICAS RE LOCALIZABLES

Con este esquema de asignación de memoria, el administrador de memoria relocaliza los programas para reunir los bloques vacios y compactarlos, para hacer un bloque de memoria lo bastante grande para aceptar algunas o todas las tareas en espera de entrar.

La compactación no es una tarea sencilla. Primero, todos los programas en memoria se deben relocalizar, de manera que queden contiguos; luego hay que ajustar cada dirección y cada referencia a una dirección en todo programa para tomar en consideración la nueva localización del programa en memoria.

ADMINISTRACIÓN DE LA MEMORIA SISTEMAS RECIENTES

ASIGNACIÓN DE LA MEMORIA EN PÁGINAS

Se basa en el concepto de dividir cada tarea de llegada en páginas de igual tamaño. Algunos sistemas operativos escogen el tamaño de la página igual al tamaño de bloque de memoria. Que es el tamaño de las secciones de disco en las cuales se almacena la tarea.

Las secciones de un disco se conocen como “sectores”. Y los sectores de la memoria principal se denominan marcos de página.

Antes de ejecutar un programa, el administrador de la memoria lo prepara mediante:

1.-la determinación del número de páginas del programa.
2.-la ubicación de suficientes marcos de pagina vacios en la memoria principal.
3.-la carga de todas las páginas del programa de los mismos.

PAGINACIÓN POR DEMANDA

La paginación por demanda introdujo la idea de cargar nada más una porción del programa en la memoria para su procesamiento. Fue el primer esquema ampliamente utilizado que elimino la necesidad de colocar toda la tarea en la memora desde el principio hasta el final.

Ejemplo: cuando los usuarios escogen la primera opción del menú de un programa de aplicación, los otros módulos que no se requieren en ese momento se pueden extraer de la memoria y cargar de nuevo cuando sean llamados. No requiere todas las páginas al mismo tiempo

1.- Los módulos de manejo de errores escritos por el usuario se procesan solo cuando se detectan un error específico durante la ejecución.
2.-Muchos módulos son mutuamente excluyentes.
3.- Ciertas opciones de programa son excluyentes entre si o no resultan siempre accesibles.

ASIGNACIÓN DE MEMORIA EN SEGMENTOS

El concepto de segmentación se basa en la práctica común entre los programadores de estructurar programas en módulos, agrupamientos lógicos de código. Con la asignación de memoria en segmentos, cada tarea se divide en varios segmentos de tamaños diferentes, uno por cada modulo que contiene piezas que ejecutan funciones relacionadas.

La tabla de tareas lista todas las tareas en proceso.
La tabla de mapa de segmentos lista detalles sobre cada segmento.
La tabla de mapa de memoria vigila la asignación de la memoria.
Es una combinación de segmentos y de paginación por demanda y ofrece los beneficios lógicos de la segmentación y las ventajas físicas de la paginación.

Bibliografia

Obtenido de:
http://www.mitecnologico.com/Main/AdministradorDeLaMemoria

ADMINISTRACION DE PROCESO

0 Comments »
¿Qué es un proceso?

Un proceso es un programa en ejecución. Un proceso simple tiene un hilo de ejecución, por el momento dejemos esta última definición como un concepto, luego se verá en más detalle el concepto de hilo. Una vez definido que es un proceso nos podríamos preguntar cuál es la diferencia entre un programa y un proceso, y básicamente la diferencia es que un proceso es una actividad de cierto tipo que contiene un programa, entradas salidas y estados.

Los procesos pueden ser cooperantes o independientes, en el primer caso se entiende que los procesos interactúan entre sí y pertenecen a una misma aplicación. En el caso de procesos independientes en general se debe a que no interactúan y un proceso no requiere información de otros o bien porque son procesos que pertenecen a distintos usuarios.

Estados de los procesos

Un proceso puede estar en cualquiera de los siguientes tres estados: Listo, En ejecución y Bloqueado.

Los procesos en el estado listo son los que pueden pasar a estado de ejecución si el planificador los selecciona. Los procesos en el estado ejecución son los que se están ejecutando en el procesador en ese momento dado. Los procesos que se encuentran en estado bloqueado están esperando la respuesta de algún otro proceso para poder continuar con su ejecución. Por ejemplo operación de E/S.

Implantación de los procesos

La implementación del modelo de procesos se logra debido a que el sistema operativo almacena en una tabla denominada tabla de control de procesos información relativa a cada proceso que se esta ejecutando en el procesador. Cada línea de esta tabla representa a un proceso.

La información que se almacena es la siguiente:

1) Identificación del proceso.
2) Identificación del proceso padre.
3) Información sobre el usuario y grupo.
4) Estado del procesador.
5) Información de control de proceso
5.1) Información del planificador.
5.2) Segmentos de memoria asignados.
5.3) Recursos asignados.

Planificación de procesos

La planificación es el proceso por el cual el sistema operativo selecciona que proceso ejecutar. La selección del proceso se basa en alguno de los algoritmos de planificación que se describen más abajo.

Objetivos de la planificación

Los objetivos de la planificación de proceso son:

• Equidad, todos los procesos deben poder ejecutarse
• Eficacia, mantener ocupada la CPU un 100% del tiempo
• Tiempo de respuesta, minimizar el tiempo de respuesta al usuario
• Tiempo de regreso, minimizar el tiempo que deben esperar los usuarios por lotes para obtener sus resultados
• Rendimiento, maximizar el número de tareas procesadas por hora.

Algoritmos de planificación

Los algoritmos de planificación son los que definen que política se va a seguir para que un proceso pase al estado de ejecución.

Planificación Round-Robin

En este tipo de planificación cada proceso tiene asignado un quantum de tiempo para ejecutarse y en el caso de que no pueda terminar la ejecución en su quantum el proceso pasa de nuevo a la cola de procesos para ser ejecutado por otro quantum luego de recorrer la cola para asegurarse que todos los procesos reciban ese quantum de procesamiento.

Planificación por prioridad

En la planificación round-robin todos los procesos son tratados con la misma prioridad. Para el caso de este tipo de planificación a cada proceso se le asigna una prioridad y los mismos son ejecutados

Colas múltiples

Las colas múltiples están basadas en una pila que sirve como índice de una lista de procesos que se tienen que ejecutar.

Primero el trabajo más corto

Este tipo de algoritmo de planificación se usa para trabajos en batch o de procesamiento or lotes en los cuales se puede saber cual es el tiempo de duración de la ejecución de cada proceso y entonces se puede seleccionar primero el trabajo más corto. El problema que se presenta con éste algoritmo es que los grandes procesos podrían sufrir de inanición dado que cualquier proceso pequeño se "cuela" sobre uno de mayor tamaño y como resultado final se podría dar el caso que el proceso grande nunca obtenga procesamiento.

Planificación garantizada

En este modelo de planificación se tiene en cuenta la cantidad de usuarios en el sistema y se le asigna a cada uno el tiempo de ejecución de 1/n (siendo n la cantidad total de usuarios) de esa forma el planificador tiene que llevar cuenta del tiempo de ejecución de los procesos y balancear el tiempo que están utilizando el procesador para cumplir con la ecuación previa.

Procesos ligeros

Los procesos ligeros son programas en ejecución son básicamente procesos pero a diferencia de éstos últimos que solo tienen un hilo de ejecución los primeros tienen el hilo principal más hilos secundarios o hijos, en éste caso todos los procesos hijos comparten la información del hilo principal pero además puede cada hilo tener su información privada.

Dentro de la información propia tenemos:

• Contador de programa
• Pila
• Registros.
• Estado del proceso ligero.
• Dentro de la información compartida tenemos:
• Variables globales.
• Archivos abiertos
• Señales
• Semáforos.
• Contabilidad.

Señales

Las señales son el mecanismo de comunicación que se establece entre los procesos. Para comparar se puede decir que las señales son a los procesos lo que las interrupciones son al procesador. Cuando un proceso recibe una señal detiene su ejecución, bifurca a la rutina del tratamiento de la señal que esta en el mismo proceso y luego una vez finalizado sigue la ejecución en el punto que había bifurcado anteriormente.

Las señales se pueden originar en un proceso o bien en el sistema operativo. Las señales se pueden enviar entre procesos, solo los que tengan el mismo uid, o bien el sistema operativo puede enviarle una señal a un proceso, por ejemplo excepciones de ejecución.

Bibliografia

Obtenido de:
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml

COMPONENTES BASICOS DE UN SISTEMA OPERATIVO

0 Comments »
¿Cómo está conformado un sistema operativo?

Un sistema operativo está conformado básicamente por cuatro módulos:

• Núcleo o Kernel.
• Administrador de memoria.
• Sistema de entrada/salida.
• Administrador de archivos.

A veces se considera un quinto módulo: el intérprete de comandos o intérprete de instrucciones, el cual se encarga de "traducir" las órdenes que el usuario ingresa mediante el teclado u otros dispositivos a un "lenguaje" que la máquina pueda entender.

Núcleo

Es el módulo de más bajo nivel de un sistema operativo, pues descansa directamente sobre el hardware de la computadora. Entre las tareas que desempeña se incluyen el manejo de las interrupciones, la asignación de trabajo al procesador y el proporcionar una vía de comunicación entre los distintos programas. En general, el núcleo se encarga de controlar el resto de los módulos y sincronizar su ejecución. El núcleo contiene un submódulo denominado "planificador", el cual se encarga de asignar tiempo del procesador a los programas, de acuerdo a una cierta política de planificación que varía de un sistema operativo a otro. Normalmente se utiliza una jerarquía de prioridades que determinan cómo se asignará el tiempo del CPU a cada programa. Una política de planificación muy común en los sistemas de multiprogramación y multiproceso son las técnicas de "time slicing" (fracción de tiempo). Se asigna a cada programa un corto intervalo de tiempo del procesador. Si el programa no ha terminado durante este intervalo de tiempo, vuelve a la cola de programas.

Administrador de memoria

Este módulo se encarga de asignar ciertas porciones de la memoria principal (RAM) a los diferentes programas o partes de los programas que la necesiten, mientras el resto de los datos y los programas se mantienen en los dispositivos de almacenamiento masivo. De este modo, cuando se asigna una parte de la memoria principal se hace de una forma estructurada, siguiendo un determinado orden. La forma más común de administración de la memoria supone crear una memoria virtual; con este sistema, la memoria de la computadora aparece, para cualquier usuario del sistema, mucho mayor de lo que en realidad es.

Sistema de entrada/salida (E/S)

Este componente presenta al usuario la E/S de datos como una cuestión independiente del dispositivo; es decir, para los usuarios, todos los dispositivos tienen las mismas características y son tratados de la misma forma, siendo el sistema operativo el encargado de atender las particularidades de cada uno de ellos (como su velocidad de operación). Una técnica muy común, especialmente en salida, es el uso de "spoolers". Los datos de salida se almacenan de forma temporal en una cola situada en un dispositivo de almacenamiento masivo (el spool), hasta que el dispositivo periférico requerido se encuentre libre; de este modo se evita que un programa quede retenido porque el periférico no esté disponible. El sistema operativo dispone de llamadas para añadir y eliminar archivos del spool.

Administrador de archivos

Se encarga de mantener la estructura de los datos y los programas del sistema y de los diferentes usuarios (que se mantienen en archivos) y de asegurar el uso eficiente de los medios de almacenamiento masivo. El administrador de archivos también supervisa la creación, actualización y eliminación de los archivos, manteniendo un directorio con todos los archivos que existen en el sistema en cada momento y coopera con el módulo administrador de memoria durante las transferencias de datos desde y hacia la memoria principal. Si se dispone de un sistema de memoria virtual, existen transferencias entre la memoria principal y los medios de almacenamiento masivo para mantener la estructura de la misma.

Los archivos almacenados en los dispositivos de almacenamiento masivo tienen distintos propósitos. Algunos contienen información que puede ser compartida. Otros son de carácter privado, e incluso secreto. Por tanto, cada archivo está dotado de un conjunto de privilegios de acceso, que indican la extensión con la que se puede compartir la información contenida en el archivo. El sistema operativo comprueba que estos privilegios no sean violados.

Gestión de procesos

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:

• Crear y destruir los procesos.
• Parar y reanudar los procesos.
• Ofrecer mecanismos para que se comuniquen y sincronicen.

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.

Gestión de la memoria principal

La Memoria (informática) es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido en los fallos del sistema. El SO es el responsable de:

• Conocer qué partes de la memoria están utilizadas y por quién.
• Decidir qué procesos se cargarán en memoria cuando haya espacio disponible.
• Asignar y reclamar espacio de memoria cuando sea necesario.

Gestión del almacenamiento secundario

Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos que no convenga mantener en la memoria principal. El SO se encarga de:

• Planificar los discos.
• Gestionar el espacio libre.
• Asignar el almacenamiento.

El sistema de E/S

Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S.

Sistema de archivos

Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es responsable de:

• Construir y eliminar archivos y directorios.
• Ofrecer funciones para manipular archivos y directorios.
• Establecer la correspondencia entre archivos y unidades de almacenamiento.
• Realizar copias de seguridad de archivos.

Existen diferentes Sistemas de Archivos, es decir, existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT, FAT32, EXT2, NTFS, etc.

Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor.

Sistemas de protección

Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:

• Distinguir entre uso autorizado y no autorizado.
• Especificar los controles de seguridad a realizar.
• Forzar el uso de estos mecanismos de protección.

Sistema de comunicaciones

Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente.

Programas de sistema

Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas, siendo algunas de las tareas que
realizan:

• Manipulación y modificación de archivos.
• Información del estado del sistema.
• Soporte a lenguajes de programación.
• Comunicaciones.

Bibliografía

O´brien, James A. (2006). Sistemas de Información Gerencial. México DF.
Silberschatz, Abraham (2006). Sistemas Operativos. México. ISBN: 968-18-6168-X.

Obtenido de "http://es.wikipedia.org/wiki/Sistema_operativo"
http://entrenate.dgsca.unam.mx/introduccion/so_compo.html

TIPOS DE SISTEMAS OPERATIVOS

0 Comments »
Tipos de Sistemas Operativos.

Actualmente los sistemas operativos se clasifican en tres clasificaciones: sistemas operativos por su estructura (visión interna), sistemas operativos por los servicios que ofrecen y sistemas operativos por la forma en que ofrecen sus servicios (visión externa).

Sistemas Operativos por Servicios(Visión Externa).

Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra:



Por Número de Usuarios:

Sistema Operativo Monousuario.

Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.

En otras palabras los sistemas monousuarios son aquellos que nada más puede atender a un solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando.

Sistema Operativo Multiusuario.

Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente.

En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

Por el Número de Tareas:

Sistema Operativo Monotarea.

Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez.
Los sistemas operativos monotareas son más primitivos y, solo pueden manejar un proceso en cada momento o que solo puede ejecutar las tareas de una en una.

Sistema Operativo Multitarea.

Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo.

Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se esta procesando la aplicación que se encuentra en primer plano (la que ve el usuario. En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano (por ejemplo, cuando esta aplicación esta esperando información del usuario), y siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una fracción de segundo.

Un sistema operativo multitarea puede estar editando el código fuente de un programa durante su depuración mientras compila otro programa, a la vez que está recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces gráficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad.

Un sistema operativo multitarea se distingue por su capacidad para soportar la ejecución concurrente de dos o más procesos
activos. La multitarea se implementa generalmente manteniendo el código y los datos de varios procesos simultáneamente en memoria y multiplexando el procesador y los dispositivos de E/S entre ellos.

La multitarea suele asociarse con soporte hardware y software para protección de memoria con el fin de evitar que procesos corrompan el espacio de direcciones y el comportamiento de otros procesos residentes.

Por el Número de Procesadores:

Sistema Operativo de Uniproceso.

Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS.

Sistema Operativo de Multiproceso.

Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente.

Asimétrica.

Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos.

Simétrica.

Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cual quiera de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema.
Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo cual puede consistir de un área de memoria, un conjunto de registros con valores específicos, la pila y otros valores de contexto.

Un aspecto importante a considerar en estos sistemas es la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que fueron hechas para correr en sistemas monoproceso que no toman ninguna ventaja a menos que el sistema operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última opción las más de las veces es costosa en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el algoritmo inicial.

Sistemas Operativos por su Estructura (Visión Interna).

Según, se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son:

Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar.
Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad.
A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener.

Estructura Monolítica.

Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Las características fundamentales de este tipo de estructura son:
• Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador.
• Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento.
• Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc.



Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

Estructura Jerárquica.

A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles.

Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interface con el resto de elementos.

Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos. Se puede pensar también en estos sistemas como si fueran `multicapa'.
Multics y Unix caen en esa categoría.



En la estructura anterior se basan prácticamente la mayoría de los sistemas operativos actuales. Otra forma de ver este tipo de sistema es la denominada de anillos concéntricos o "rings".



En el sistema de anillos, cada uno tiene una apertura, conocida como puerta o trampa (trap), por donde pueden entrar las llamadas de las capas inferiores. De esta forma, las zonas más internas del sistema operativo o núcleo del sistema estarán más protegidas de accesos indeseados desde las capas más externas. Las capas más internas serán, por tanto, más privilegiadas que las externas.

Máquina Virtual.

Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes.

El núcleo de estos sistemas operativos se denomina monitor virtual y tiene como misión llevar a cabo la multiprogramación, presentando a los niveles superiores tantas máquinas virtuales como se soliciten. Estas máquinas virtuales no son máquinas extendidas, sino una réplica de la máquina real, de manera que en cada una de ellas se pueda ejecutar un sistema operativo diferente, que será el que ofrezca la máquina extendida al usuario



Cliente-Servidor(Microkernel).

El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.

Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales.

El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee solamente funciones muy básicas de memoria, entrada/salida, archivos y procesos, dejando a los servidores proveer la mayoría que el usuario final o programador puede usar. Estos servidores deben tener mecanismos de seguridad y protección que, a su vez, serán filtrados por el núcleo que controla el hardware. Actualmente se está trabajando en una versión de UNIX que contempla en su diseño este paradigma.

Sistemas Operativos por la Forma de Ofrecer sus Servicios

Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la del usuario, el cómo accesa a los servicios. Bajo esta clasificación se pueden detectar dos tipos principales: sistemas operativos de red y sistemas operativos distribuidos.

Sistema Operativo de Red.

Los sistemas operativos de red se definen como aquellos que tiene la capacidad de interactuar con sistemas operativos en otras computadoras por medio de un medio de transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario debe saber la sintaxis de un conjunto de comandos o llamadas al sistema para ejecutar estas operaciones, además de la ubicación de los recursos que desee accesar. Por ejemplo, si un usuario en la computadora hidalgo necesita el archivo matriz.pas que se localiza en el directorio /software/codigo en la computadora morelos bajo el sistema operativo UNIX, dicho usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo% hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo%. En este caso, el comando rcp que significa "remote copy" trae el archivo indicado de la computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado comando. Lo importante es hacer ver que el usuario puede accesar y compartir muchos recursos.

El primer Sistema Operativo de red estaba enfocado a equipos con un procesador Motorola 68000, pasando posteriormente a procesadores Intel como Novell Netware.

Los Sistemas Operativos de red mas ampliamente usados son: Novell Netware, Personal Netware, LAN Manager, Windows NT Server, UNIX, LANtastic.

Sistemas Operativos Distribuidos.

Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar recursos ( impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso ) en una sola máquina virtual que el usuario accesa en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y simplemente los usa como si todos ellos fuesen locales a su lugar de trabajo habitual.

Todo lo anterior es el marco teórico de lo que se desearía tener como sistema operativo distribuido, pero en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y seguridad entre los diferentes componentes del sistema y los usuarios. Los avances tecnológicos en las redes de área local y la creación de microprocesadores de 32 y 64 bits lograron que computadoras mas o menos baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe. El sistema integrador de los microprocesadores que hacer ver a las varias memorias, procesadores, y todos los demás recursos como una sola entidad en forma transparente se le llama sistema operativo distribuído. Las razones para crear o adoptar sistemas distribuidos se dan por dos razones principales: por necesidad ( debido a que los problemas a resolver son inherentemente distribuidos ) o porque se desea tener más confiabilidad y disponibilidad de recursos. En el primer caso tenemos, por ejemplo, el control de los cajeros automáticos en diferentes estados de la república. Ahí no es posible ni eficiente mantener un control centralizado, es más, no existe capacidad de cómputo y de entrada/salida para dar servicio a los millones de operaciones por minuto. En el segundo caso, supóngase que se tienen en una gran empresa varios grupos de trabajo, cada uno necesita almacenar grandes cantidades de información en disco duro con una alta confiabilidad y disponibilidad. La solución puede ser que para cada grupo de trabajo se asigne una partición de disco duro en servidores diferentes, de manera que si uno de los servidores falla, no se deje dar el servicio a todos, sino sólo a unos cuantos y, más aún, se podría tener un sistema con discos en espejo ( mirror ) a través de la red, de manera que si un servidor se cae, el servidor en espejo continúa trabajando y el usuario ni cuenta se da de estas fallas, es decir, obtiene acceso a recursos en forma transparente.

Los sistemas distribuidos deben de ser muy confiables, ya que si un componente del sistema se compone otro componente debe de ser capaz de reemplazarlo.

Entre los diferentes Sistemas Operativos distribuidos que existen tenemos los siguientes: Sprite, Solaris-MC, Mach, Chorus, Spring, Amoeba, Taos, etc.

Seguridad de un Sistema Operativo.

En los sistemas operativos se requiere tener una buena seguridad informática, tanto del hardware, programas y datos, previamente haciendo un balance de los requerimientos y mecanismos necesarios. Con el fin de asegurar la integridad de la información contenida.

Dependiendo de los mecanismos utilizados y de su grado de efectividad, se puede hablar de sistemas seguros e inseguros. En primer lugar, deben imponerse ciertas características en el entorno donde se encuentra la instalación de los equipos, con el fin de impedir el acceso a personas no autorizadas, mantener un buen estado y uso del material y equipos, así como eliminar los riesgos de causas de fuerza mayor, que puedan destruir la instalación y la información contenida.

En la actualidad son muchas las violaciones que se producen en los sistemas informáticos, en general por acceso de personas no autorizadas que obtienen información confidencial pudiendo incluso manipularla. En ocasiones este tipo de incidencias resulta grave por la naturaleza de los datos; por ejemplo si se trata de datos bancarios, datos oficiales que puedan afectar a la seguridad de los estados, etc.

El software mal intencionado que se produce por diversas causas, es decir pequeños programas que poseen gran facilidad para reproducirse y ejecutarse, cuyos efectos son destructivos nos estamos refiriendo a los virus informáticos.

Para esto, se analizan cuestiones de seguridad desde dos perspectivas diferentes la seguridad externa y la seguridad interna.

Todos los mecanismos dirigidos a asegurar el sistema informático sin que el propio sistema intervenga en el mismo se engloban en lo que podemos denominar seguridad externa.

La seguridad externa puede dividirse en dos grandes grupos:

Seguridad física. Engloba aquellos mecanismos que impiden a los agentes físicos la destrucción de la información existente en el sistema; entre ellos podemos citar el fuego, el humo, inundaciones descargas eléctricas, campos magnéticos, acceso físico de personas con no muy buena intención, entre otros.

Seguridad de administración. Engloba los mecanismos más usuales para impedir el acceso lógico de personas físicas al sistema.

Todos los mecanismos dirigidos a asegurar el sistema informático, siendo el propio sistema el que controla dichos mecanismos, se engloban en lo que podemos denominar seguridad interna.

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.
La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.
Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO.

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El
problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios puede estar usando una misma computadora por medio de terminales o usar muchas de ellas.

BIBLIOGRAFIA

Computer Concepts, June Jamrich Parsosns, Brief Edition, ITP.
Página en Internet: http://itesocci.gdl.iteso.mx/%7Eia27563/index.html

NECESIDAD DE LOS SISTEMAS OPERATIVOS

0 Comments »
Funciones del sistema operativo

El sistema operativo cumple varias funciones:

• Administración del procesador: el sistema operativo administra la distribución del procesador entre los distintos programas por medio de un algoritmo de programación. El tipo de programador depende completamente del sistema operativo, según el objetivo deseado.
• Gestión de la memoria de acceso aleatorio: el sistema operativo se encarga de gestionar el espacio de memoria asignado para cada aplicación y para cada usuario, si resulta pertinente. Cuando la memoria física es insuficiente, el sistema operativo puede crear una zona de memoria en el disco duro, denominada "memoria virtual". La memoria virtual permite ejecutar aplicaciones que requieren una memoria superior a la memoria RAM disponible en el sistema. Sin embargo, esta memoria es mucho más lenta.
• Gestión de entradas/salidas: el sistema operativo permite unificar y controlar el acceso de los programas a los recursos materiales a través de los drivers (también conocidos como administradores periféricos o de entrada/salida).
• Gestión de ejecución de aplicaciones: el sistema operativo se encarga de que las aplicaciones se ejecuten sin problemas asignándoles los recursos que éstas necesitan para funcionar. Esto significa que si una aplicación no responde correctamente puede "sucumbir".
• Administración de autorizaciones: el sistema operativo se encarga de la seguridad en relación con la ejecución de programas garantizando que los recursos sean utilizados sólo por programas y usuarios que posean las autorizaciones correspondientes.
• Gestión de archivos: el sistema operativo gestiona la lectura y escritura en el sistema de archivos, y las autorizaciones de acceso a archivos de aplicaciones y usuarios.
• Gestión de la información: el sistema operativo proporciona cierta cantidad de indicadores que pueden utilizarse para diagnosticar el funcionamiento correcto del equipo.

Obtenido de:
http://es.kioskea.net/contents/systemes/sysintro.php3

SISTEMAS OPERATIVOS

0 Comments »
Sistema operativo

A finales de los 40's el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y podercorregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ).

La importancia de los sistemas operativos nace históricamente desde los 50's, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajo en lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS.

Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyecto tan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseño e implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.

Para mediados de los 80's, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en redy sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones ( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programación orientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos.

¿Qué es un Sistema Operativo?

Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.

Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.

Característica de un Sistema Operativo.

En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.

Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.

Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.

Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.

Organizar datos para acceso rápido y seguro.

Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.

Procesamiento por bytes de flujo a través del bus de datos.

Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.

Técnicas de recuperación de errores.

Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.


Intereaccion entre el SO con el resto de las partes.

Un Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas usados por el usuario para manejar un computador. Es responsable de gestionar, coordinar las actividades y llevar a cabo el intercambio de los recursos y actúa como estación para las aplicaciones que se ejecutan en la máquina.

Uno de los más prominentes ejemplos de sistema operativo, es el núcleo Linux, el cual junto a las herramientas GNU, forman las llamadas distribuciones Linux.

Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, pues este, es sólo el núcleo y no necesita de entorno operador para estar operativo y funcional. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.

Uno de los propósitos de un sistema operativo como programa estación principal, consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.)

Parte de la infraestructura de la World Wide Web está compuesta por el Sistema Operativo de Internet, creado por Cisco Systems para gestionar equipos de interconexión como los conmutadores y los enrutadores.

Problemas de explotación y soluciones iniciales

El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.

Monitores residentes


Fichas en lenguaje de procesamiento por lotes, con programa y datos, para ejecución secuencial.

Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.

Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.

Llamadas al sistema operativo

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:

• Las llamadas correspondientes deben tener el mismo formato.
• Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.

Componentes de un sistema operativo

Gestión de procesos

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:

• Crear y destruir los procesos.
• Parar y reanudar los procesos.
• Ofrecer mecanismos para que se comuniquen y sincronicen.

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.

Gestión de la memoria principal

La Memoria (informática) es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido en los fallos del sistema. El SO es el responsable de:

• Conocer qué partes de la memoria están utilizadas y por quién.
• Decidir qué procesos se cargarán en memoria cuando haya espacio disponible.
• Asignar y reclamar espacio de memoria cuando sea necesario.

Gestión del almacenamiento secundario

Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos que no convenga mantener en la memoria principal. El SO se encarga de:

• Planificar los discos.
• Gestionar el espacio libre.
• Asignar el almacenamiento.

El sistema de E/S

Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S.

Sistema de archivos

Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es responsable de:

• Construir y eliminar archivos y directorios.
• Ofrecer funciones para manipular archivos y directorios.
• Establecer la correspondencia entre archivos y unidades de almacenamiento.
• Realizar copias de seguridad de archivos.

Existen diferentes Sistemas de Archivos, es decir, existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT, FAT32, EXT2, NTFS, etc.

Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor.

Sistemas de protección

Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:

• Distinguir entre uso autorizado y no autorizado.
• Especificar los controles de seguridad a realizar.
• Forzar el uso de estos mecanismos de protección.

Sistema de comunicaciones

Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente.

Programas de sistema

Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas, siendo algunas de las tareas que realizan:

• Manipulación y modificación de archivos.
• Información del estado del sistema.
• Soporte a lenguajes de programación.
• Comunicaciones.

Gestor de recursos

Como gestor de recursos, el Sistema Operativo administra:

• La CPU (Unidad Central de Proceso, donde está alojado el microprocesador).
• Los dispositivos de E/S (entrada y salida)
• La memoria principal (o de acceso directo).
• Los discos (o memoria secundaria).
• Los procesos (o programas en ejecución).
• y en general todos los recursos del sistema.



Componentes del Sistema Operativo.

Características

Administración de tareas

• Monotarea: Solamente puede ejecutar un proceso (aparte de los procesos del propio S.O.) en un momento dado. Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización y/o interrupción.
• Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera que el usuario percibe que todos funcionan a la vez, de forma concurrente.

Administración de usuarios

• Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo tiempo.
• Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los recursos de la computadora. Normalmente estos sistemas operativos utilizan métodos de protección de datos, de manera que un programa no pueda usar o cambiar los datos de otro usuario.

Manejo de recursos

• Centralizado: Si permite utilizar los recursos de una sola computadora.
• Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de más de una computadora al mismo tiempo.

Bibliografía

Obtenido de http://es.wikipedia.org/wiki/Sistema_operativo

http://www.monografias.com/trabajos12/hisis/hisis.shtml