lunes, 19 de abril de 2010

SISTEMAS DE INFORMACION


Un sistema de información (SI) es un conjunto de elementos orientados al tratamiento y administración de datos e información, organizados y listos para su posterior uso, generados para cubrir una necesidad (objetivo). Dichos elementos formarán parte de alguna de estas categorías:

  • Personas.
  • Datos.
  • Actividades o técnicas de trabajo.
  • Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no tienen por qué ser de este tipo obligatoriamente).


Todos estos elementos interactúan entre sí para procesar los datos (incluyendo procesos manuales y automáticos) dando lugar a información más elaborada y distribuyéndola de la manera más adecuada posible en una determinada organización en función de sus objetivos.
Normalmente el término es usado de manera errónea como sinónimo desistema de información informático, en parte porque en la mayoría de los casos los recursos materiales de un sistema de información están constituidos casi en su totalidad por sistemas informáticos, pero siendo estrictos, un sistema de información no tiene por qué disponer de dichos recursos (aunque en la práctica esto no suela ocurrir). Se podría decir entonces que los sistemas de información informáticos son una subclase o un subconjunto de los sistemas de información en general.

Ejemplo de Sistema de Información

Junto a las personas y el correcto Sistema de Calidad que guía el desarrollo de su cometido, es el Sistema de Información el recurso material que permite el desarrollo de un trabajo de calidad.

Este sistema se estructura según el esquema adjunto:




El propósito de este sistema es entre otros el conseguir la movilidad total, de forma que el acceso a la información corporativa precisa para el desarrollo de nuestro trabajo pueda realizarse desde cualquier punto, sin ser precisa la presencia física en nuestras instalaciones.

Evolución de Los Sistemas de Información

En la década de los setenta, Richard Nolan, un conocido autor y profesor de la Escuela de Negocios de Harvard, desarrolló una teoría que impactó el proceso de planeación de los recursos y las actividades de la informática.

Según Nolan, la función de la Informática en las organizaciones evoluciona a través de ciertas etapas de crecimiento, las cuales se explican a continuación:

  • Comienza con la adquisición de la primera computadora y normalmente se justifica por el ahorro de mano de obra y el exceso de papeles.
  • Las aplicaciones típicas que se implantan son los Sistemas Transaccionales tales como nóminas o contabilidad.
  • El pequeño Departamento de Sistemas depende en la mayoría de los casos del área de contabilidad.
  • El tipo de administración empleada es escaso y la función de los sistemas suele ser manejada por un administrador que no posee una preparación formal en el área de computación.
  • El personal que labora en este pequeño departamento consta a lo sumo de un operador y/o un programador. Este último podrá estar bajo el régimen de honorarios, o bien, puede recibirse el soporte de algún fabricante local de programas de aplicación.
  • En esta etapa es importante estar consciente de la resistencia al cambio del personal y usuario (ciberfobia) que están involucrados en los primeros sistemas que se desarrollan, ya que estos sistemas son importantes en el ahorro de mano de obra.
  • Esta etapa termina con la implantación exitosa del primer Sistema de Información. Cabe recalcar que algunas organizaciones pueden vivir varias etapas de inicio en las que la resistencia al cambio por parte de los primeros usuarios involucrados aborta el intento de introducir la computador a la empresa.
Etapa de contagio o expansión. Los aspectos sobresalientes que permiten diagnosticar rápido que una empresa se encuentra en esta etapa son:

  • Se inicia con la implantación exitosa del primer Sistema de Información en la organización. Como consecuencia de lo anterior, el primer ejecutivo usuario se transforma en el paradigma o persona que se habrá que imitar.
  • Las aplicaciones que con frecuencia se implantan en esta etapa son el resto de los Sistemas Transaccionales no desarrollados en la etapa de inicio, tales como facturación, inventarios, control de pedidos de clientes y proveedores, cheques, etc.
  • El pequeño departamento es promovido a una categoría superior, donde depende de la Gerencia Administrativa o Contraloría.
  • El tipo de administración empleado está orientado hacia la venta de aplicaciones a todos los usuarios de la organización; en este punto suele contratarse a un especialista de la función con preparación académica en el área de sistemas.
  • Se inicia la contratación de personal especializado y nacen puestos tales como analista de sistemas, analista-programador, programador de sistemas, jefe de desarrollo, jefe de soporte técnico, etc.
  • Las aplicaciones desarrolladas carecen de interfases automáticas entre ellas, de tal forma que las salidas que produce un sistema se tienen que alimentar en forma manual a otro sistema, con la consecuente irritación de los usuarios.
  • Los gastos por concepto de sistemas empiezan a crecer en forma importante, lo que marca la pauta para iniciar la racionalización en el uso de los recursos computacionales dentro de la empresa. Este problema y el inicio de su solución marcan el paso a la siguiente etapa.
Etapa de control o formalización. Para identificar a una empresa que transita por esta etapa es necesario considerar los siguientes elementos:


  • Esta etapa de evolución de la Informática dentro de las empresas se inicia con la necesidad de controlar el uso de los recursos computacionales a través de las técnicas de presupuestación base cero (partiendo de que no se tienen nada) y la implantación de sistemas de cargos a usuarios (por el servicio que se presta).
  • Las aplicaciones están orientadas a facilitar el control de las operaciones del negocio para hacerlas más eficaces, tales como sistemas para control de flujo de fondos, control de órdenes de compra a proveedores, control de inventarios, control y manejo de proyectos, etc.
  • El departamento de sistemas de la empresa suele ubicarse en una posición gerencial, dependiendo del organigrama de la Dirección de Administración o Finanzas.
  • El tipo de administración empleado dentro del área de Informática se orienta al control administrativo y a la justificación económica de las aplicaciones a desarrollar. Nace la necesidad de establecer criterios para las prioridades en el desarrollo de nuevas aplicaciones. La cartera de aplicaciones pendientes por desarrollar empieza a crecer.
  • En esta etapa se inician el desarrollo y la implantación de estándares de trabajo dentro del departamento, tales como: estándares de documentación, control de proyectos, desarrollo y diseño de sistemas, auditoría de sistemas y programación.
  • Se integra a la organización del departamento de sistemas, personal con habilidades administrativas y preparado técnicamente.
  • Se inicia el desarrollo de interfases automáticas entre los diferentes sistemas.

Etapa de integración. Las características de esta etapa son las siguientes:


  • La integración de los datos y de los sistemas surge como un resultado directo de la centralización del departamento de sistemas bajo una sola estructura administrativa.
  • Las nuevas tecnologías relacionadas con base de datos, sistemas administradores de bases de datos y lenguajes de cuarta generación, hicieron posible la integración.
  • En esta etapa surge la primera hoja electrónica de cálculo comercial y los usuarios inician haciendo sus propias aplicaciones. Esta herramienta ayudó mucho a que los usuarios hicieran su propio trabajo y no tuvieran que esperar a que sus propuestas de sistemas fueran cumplidas.
  • El costo del equipo y del software disminuyó por lo cual estuvo al alcance de más usuarios.
  • En forma paralela a los cambios tecnológicos, cambió el rol del usuario y del departamento de Sistemas de Información. El departamento de sistemas evolucionó hacia una estructura descentralizada, permitiendo al usuario utilizar herramientas para el desarrollo de sistemas.
  • Los usuarios y el departamento de sistema iniciaron el desarrollo de nuevos sistemas, reemplazando los sistemas antiguos, en beneficio de la organización.


Etapa de administración de datos. Entre las características que destacan en esta etapa están las siguientes:


  • El departamento de Sistemas de Información reconoce que la información es un recurso muy valioso que debe estar accesible para todos los usuarios.
  • Para poder cumplir con lo anterior resulta necesario administrar los datos en forma apropiada, es decir, almacenarlos y mantenerlos en forma adecuada para que los usuarios puedan utilizar y compartir este recurso.
  • El usuario de la información adquiere la responsabilidad de la integridad de la misma y debe manejar niveles de acceso diferentes.


Etapa de madurez. Entre los aspectos sobresalientes que indican que una empresa se encuentra en esta etapa, se incluyen los siguientes:


  • Al llegar a esta etapa, la Informática dentro de la organización se encuentra definida como una función básica y se ubica en los primeros niveles del organigrama (dirección).
  • Los sistemas que se desarrollan son Sistemas de Manufactura Integrados por Computadora, Sistemas Basados en el Conocimiento y Sistemas Expertos, Sistemas de Soporte a las Decisiones, Sistemas Estratégicos y, en general, aplicaciones que proporcionan información para las decisiones de alta administración y aplicaciones de carácter estratégico.
  • En esta etapa se tienen las aplicaciones desarrolladas en la tecnología de base de datos y se logra la integración de redes de comunicaciones con terminales en lugares remotos, a través del uso de recursos computacionales.

Tipos y Usos de los Sistemas de Información

Durante los próximos años, los Sistemas de Información cumplirán tres objetivos básicos dentro de las organizaciones:


  1. Automatización de procesos operativos.
  2. Proporcionar información que sirva de apoyo al proceso de toma de decisiones.
   3.   Lograr ventajas competitivas a través de su implantación y uso.


Los Sistemas de Información que logran la automatización de procesos operativos dentro de una organización, son llamados frecuentemente Sistemas Transaccionales, ya que su función primordial consiste en procesar transacciones tales como pagos, cobros, pólizas, entradas, salidas, etc. Por otra parte, los Sistemas de Información que apoyan el proceso de toma de decisiones son los Sistemas de Soporte a la Toma de Decisiones, Sistemas para la Toma de Decisión de Grupo, Sistemas Expertos de Soporte a la Toma de Decisiones y Sistema de Información para Ejecutivos. El tercer tipo de sistema, de acuerdo con su uso u objetivos que cumplen, es el de los Sistemas Estratégicos, los cuales se desarrollan en las organizaciones con el fin de lograr ventajas competitivas, a través del uso de la tecnología de información.


Los tipos y usos de los Sistemas de Información se muestran a continuación. 





A continuación se mencionan las principales características de estos tipos de Sistemas de Información.


Sistemas Transaccionales. Sus principales características son:

A través de éstos suelen lograrse ahorros significativos de mano de obra, debido a que automatizan tareas operativas de la organización.


Con frecuencia son el primer tipo de Sistemas de Información que se implanta en las organizaciones. Se empieza apoyando las tareas a nivel operativo de la organización.


Son intensivos en entrada y salid de información; sus cálculos y procesos suelen ser simples y poco sofisticados.


Tienen la propiedad de ser recolectores de información, es decir, a través de estos sistemas se cargan las grandes bases de información para su explotación posterior.


Son fáciles de justificar ante la dirección general, ya que sus beneficios son visibles y palpables.


Sistemas de Apoyo de las Decisiones. Las principales características de estos son:


Suelen introducirse después de haber implantado los Sistemas Transaccionales más relevantes de la empresa, ya que estos últimos constituyen su plataforma de información.


La información que generan sirve de apoyo a los mandos intermedios y a la alta administración en el proceso de toma de decisiones.


Suelen ser intensivos en cálculos y escasos en entradas y salidas de información. Así, por ejemplo, un modelo de planeación financiera requiere poca información de entrada, genera poca información como resultado, pero puede realizar muchos cálculos durante su proceso.


No suelen ahorrar mano de obra. Debido a ello, la justificación económica para el desarrollo de estos sistemas es difícil, ya que no se conocen los ingresos del proyecto de inversión.


Suelen ser Sistemas de Información interactivos y amigables, con altos estándares de diseño gráfico y visual, ya que están dirigidos al usuario final.


Apoyan la toma de decisiones que, por su misma naturaleza son repetitivos y de decisiones no estructuradas que no suelen repetirse. Por ejemplo, un Sistema de Compra de Materiales que indique cuándo debe hacerse un pedido al proveedor o un Sistema de Simulación de Negocios que apoye la decisión de introducir un nuevo producto al mercado.


Estos sistemas pueden ser desarrollados directamente por el usuario final sin la participación operativa de los analistas y programadores del área de informática.


Este tipo de sistemas puede incluir la programación de la producción, compra de materiales, flujo de fondos, proyecciones financieras, modelosde simulación de negocios, modelos de inventarios, etc.


Sistemas Estratégicos. Sus principales características son:

Su función primordial no es apoyar la automatización de procesos operativos ni proporcionar información para apoyar la toma de decisiones.


Suelen desarrollarse in house, es decir, dentro de la organización, por lo tanto no pueden adaptarse fácilmente a paquetes disponibles en el mercado.


Típicamente su forma de desarrollo es a base de incrementos y a través de su evolución dentro de la organización. Se inicia con un proceso o función en particular y a partir de ahí se van agregando nuevas funciones o procesos.


Su función es lograr ventajas que los competidores no posean, tales como ventajas en costos y servicios diferenciados con clientes y proveedores. En este contexto, los Sistema Estratégicos son creadores de barreras de entrada al negocio. Por ejemplo, el uso de cajeros automáticos en los bancos en un Sistema Estratégico, ya que brinda ventaja sobre un banco que no posee tal servicio. Si un banco nuevo decide abrir sus puerta al público, tendrá que dar este servicio para tener un nivel similar al de sus competidores.


Apoyan el proceso de innovación de productos y proceso dentro de la empresa debido a que buscan ventajas respecto a los competidores y una forma de hacerlo en innovando o creando productos y procesos.


Un ejemplo de estos Sistemas de Información dentro de la empresa puede ser un sistema MRP (Manufacturing Resoure Planning) enfocado a reducir sustancialmente el desperdicio en el proceso productivo, o bien, un Centro de Información que proporcione todo tipo de información; como situación de créditos, embarques, tiempos de entrega, etc. En este contexto los ejemplos anteriores constituyen un Sistema de Información Estratégico si y sólo sí, apoyan o dan forma a la estructura competitiva de la empresa.


Por último, es importante aclarar que algunos autores consideran un cuarto tipo de sistemas de información denominado Sistemas Personales de Información, el cual está enfocado a incrementar la productividad de sus usuarios.







CIENCIAS COMPUTACIONALES

Las ciencias de la computación:

Son aquellas que abarcan el estudio de las bases teóricas de la información y la computación y su aplicación en sistemas computacionales.Existen diversos campos o disciplinas dentro de las Ciencias de la Computación o Ciencias Computacionales; algunos enfatizan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputos. Otros por su parte se enfocan en los problemas que requieren la implementación de cómputos. Por ejemplo, los estudios de la teoría de lenguajes de programacióndescriben un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional concreto. La informática se refiere al tratamiento automatizado de la información de una forma útil y oportuna. No se debe confundir el carácter teórico de esta ciencia con otros aspectos prácticos como Internet.



Historia

La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos. Los primeros investigadores en lo que después se convertiría las ciencias de la computación, estaban interesados en la cuestión de la computabilidad: qué cosas pueden ser computadas por un ser humano que simplemente siga una lista de instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin conocimiento previo del problema. Parte de la motivación para este trabajo era el desarrollar máquinas que computaran, y que pudieran automatizar el tedioso y lleno de errores trabajo de la computación humana.



Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas en vez de a sus antecesores humanos. Conforme iba quedando claro que las computadoras podían usarse para más cosas que solamente cálculos matemáticos, el campo de la ciencia de la computación se fue ampliando para estudiar a la computación (informática) en general. La ciencia de la computación comenzó entonces a establecerse como una disciplina académica en la década de 1960, con la creación de los primeros departamentos de ciencia de la computación y los primeros programas de licenciatura (Denning 2000).

Mayores logros:

Aún con su relativamente corta historia como disciplina académica formal, las ciencias de la computación han logrado una buena cantidad de contribuciones fundamentales a la ciencia y la sociedad. Por ejemplo:


Una definición formal de computación y de computabilidad (Constable 2000).


Una demostración de que existen problemas a los que no hay una solución computacional (problema de la parada, o halting problem en inglés) y problemas intratables. (Constable 2000).


El concepto de lenguaje de programación, una herramienta para la expresión precisa de información metodológica a varios niveles de abstracción (Abelson y Sussman 1996).


Tecnologías revolucionarias, como las computadoras de uso general, la Internet, las firmas digitales, el comercio electrónico y los motores de búsqueda (Constable 1997, Constable 2000).


Ha habilitado nuevos tipos de investigación científica, como la física computacional, la química computacional y la biología computacional, entre otras (Constable 1997).

Relación con otros campos:

A pesar de su nombre, las ciencias de la computación raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase "Las ciencias de la computación están tan poco relacionadas con las computadoras como la astronomía con los telescopios." Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que evitara la relación con las computadoras.


Una primera propuesta fue la de Peter Naur, que acuñó el término datología, para reflejar el hecho de que la nueva disciplina se ocupaba fundamentalmente del tratamiento de los datos, independientemente de las herramientas de dicho tratamiento, fueran computadoras o artificios matemáticos. La primera institución científica en adoptar la denominación fue el Departamento de Datología de la Universidad de Copenage, fundado en 1969, siendo el propio Peter Naur el primer profesor de datología. Esta denominación se utiliza principalmente en los países escandinavos. Asimismo, en los primeros momentos, un gran número de términos aparecieron asociados a los practicantes de la computación. En esta lista se pueden ver los sugeridos en las revistas y comunicados de ACM : turingeniero, turologista, hombre de los diagramas de flujo(flow-charts-man), metamatemático aplicado, y epistemólogo aplicado.


Tres meses más tarde se sugirió el término contólogo, seguido de hipólogo al año siguiente. También se sugirió el término compútica para la disciplina. Informática era el término más frecuentemente usado en toda Europa.


El diseño y desarrollo de computadoras y sistemas computacionales está generalmente considerado como un campo reclamado por disciplinas ajenas a las ciencias de la computación. Por ejemplo, el estudio del hardware está usualmente considerado como parte de la ingeniería informática, mientras que el estudio de sistemas computacionales comerciales y su desarrollo es usualmente llamado tecnologías de la información (TI) o sistemas de información. Sin embargo, hay una estrecha comunicación de ideas entre las distintas disciplinas relacionadas con las computadoras. La ciencia de la computación a menudo es criticada desde otros estamentos que la consideran escasamente rigurosa y científica. Esta opinión se plasma en la expresión: "La ciencia es a las ciencias de la computación como la hidrodinámica a la fontanería", atribuida a Stan Kelly-Bootle y otros afines. La investigación en ciencias de la computación usualmente también se relaciona con otras disciplinas, como la ciencia cognitiva, la física, la lingüística, etc.


Para muchos, las ciencias de la computación guardan una relación más estrecha con las matemáticas que otras disciplinas científicas como la mecánica o la electrónica (Denning 2000). Esto puede deberse a que la ciencia de la computación estuvo fuertemente influenciada en sus inicios por el trabajo de matemáticos de la talla de Kurt Gödel y Alan Turing, y en la actualidad sigue habiendo un intercambio de ideas útil entre ambos campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría.


La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputas sobre lo que realmente significa el término "ingeniería de software" y sobre cómo se define a las ciencias de la computación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de la computación. Otras por su parte, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con lo que se convertirían en disciplinas diferentes. Este punto de vista es mantenido, entre otros por (Parnas 1998). Incluso hay otros que sostienen que no podría existir una ingeniería de software.


Los aspectos académicos, políticos y de financianción en las áreas de ciencias de la computación tienden a estar drásticamente influenciados por el criterio del departamento encargado de la investigación y la educación en cada universidad, que puede estar orientado a la matemática o a la ingeniería. Los departamentos de ciencias de la computación orientados a la matemática suelen alinearse del lado de la computación científica y las aplicaciones de cálculo numérico.


El término computación científica, que no debe confundirse con ciencia de la computación, designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medios computacionales. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, biología, mecánica de fluidos, radiotransmisión,...) mas que en la propia ciencia de la computación.

Campos de las Ciencias de la Computación

Fundamentos matemáticos

Criptografía
Algoritmos para proteger datos privados, incluyendo el cifrado

http://www.tjpe.gov.br/Boletim/N41/images/dicas/abril_06/criptografia_01.png



Teoría de grafos
Son elementales para las estructuras de almacenamiento de datos y para los algoritmos de búsqueda.

http://images.google.com.mx/imgres?imgurl=http://josegonzalezcorrales.files.wordpress.com/2008/03/redes.jpg&imgrefurl=http://josegonzalezcorrales.wordpress.com/2008/03/&usg=__uM885B6wJSPGW7cAMP0uq8Q9AdY=&h=407&w=512&sz=118&hl=en&start=3&um=1&itbs=1&tbnid=3sEZtUXp2E9b0M:&tbnh=104&tbnw=131&prev=/images%3Fq%3Dteoria%2Bde%2Bgrafos%26um%3D1%26hl%3Den%26gbv%3D2%26tbs%3Disch:1


Lógica matemática
Teoría de tipos
análisis formal de los tipos de los datos, y el uso de estos para entender las propiedades de los programas, en particular la seguridad de los mismos.


Teoría de la computación

Teoría de la computación
Teoría de autómatas
Teoría de la computabilidad
Teoría de la complejidad computacional
límites fundamentales (en especial de espacio en memoria y tiempo) de los cómputos.

Algoritmos y estructuras de datos

Análisis de algoritmos
Algoritmos
Procesos formales usados para los cómputos, y eficiencia de estos procesos.
Estructuras de datos
organización y manipulación de los datos

Lenguajes de programación y compiladores

Compiladores
formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes de bajo nivel.
Lenguajes de programación
lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes.






Bases de datos

Minería de datos
estudio de algoritmos para buscar y procesar información en documentos y bases de datos; muy relacionada con la adquisición de información.

Sistemas concurrentes, paralelos y distribuidos

Programación concurrente
teoría y práctica de cómputos simultáneos y computación interactiva.
Redes de computadoras
algoritmos y protocolos para comunicar eficientemente datos a través de largas distancias, incluye también la corrección de errores.
Cómputo paralelo
computación usando múltiples computadoras y múltiples procesadores en paralelo.
Sistemas Distribuidos
sistemas utilizando múltiples procesadores repartidos en una gran área geográfica.

Inteligencia artificial

Inteligencia artificial
la implementación y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) una inteligencia autónoma o comportamiento propio, a veces inspirado por las características de los seres vivos. Las ciencias de la computación están relacionadas con la IA, ya que el software y las computadoras son herramientas básicas para el desarrollo y progreso de la inteligencia artificial.
Razonamiento automatizado
Robótica
algoritmos para controlar el comportamiento de los robots.
Visión por computador
algoritmos para extraer objetos tridimensionales de una imagen bidimensional.
Aprendizaje Automático

http://images.google.com.mx/imgres?imgurl=http://ciberconta.unizar.es/leccion/introduc/DIBUJOS/redesneu.gif&imgrefurl=http://ciberconta.unizar.es/leccion/introduc/480.HTM&usg=__9HUQPo7I4P6tgR0bwTYn0gkjXMc=&h=370&w=449&sz=29&hl=en&start=4&um=1&itbs=1&tbnid=jHEjyI6pSW5pfM:&tbnh=105&tbnw=127&prev=/images%3Fq%3DInteligencia%2Bartificial%26um%3D1%26hl%3Den%26sa%3DG%26gbv%3D2%26tbs%3Disch:1


Gráficos por computador


Algoritmos tanto para generar sintéticamente imágenes visuales como para integrar o alterar la información visual y espacial tomada del mundo real.
Procesamiento digital de imágenes
por ejemplo para sensores remotos.


Geometría Computacional


Por ejemplo algoritmos veloces para seleccionar sólo los puntos visibles en un poliedro visto desde cierto ángulo, usado en motores 3D


Computación científica

Bioinformática
Computación Cuántica
Paradigma de computación basado en la Mecánica Cuántica


Relación con otros campos.

Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales.

A pesar del nombre, muchos aspectos de la ciencia de la computación no incluyen el estudio de los computadores en sí mismo. De hecho, el conocido científico de la computación Edsger Dijkstra es considerado el autor de la frase "La ciencia de la computación no tiene tanto que ver con los computadores como la astronomía con el telescopio [...]".


Algunas veces la ciencia de la computación también es criticada por no ser lo suficientemente científica, como se expone en la frase: "La ciencia es a la ciencia de la computación lo mismo que la hidrodinámica es para la construcción de canalizaciones", acreditada a Stan Kelly-Bootle. A pesar de esto, su estudio frecuentemente se cruza con otras áreas de investigación, tales como la inteligencia artificial, física y lingüística.

Pero es con las matemáticas con las que se considera que la ciencia de computación tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y Alan Turing.

 


INFORMATICA ADMINISTRATIVA


Está orientada a formar profesionistas capaces de analizar, diseñar, integrar y administrar sistemas de información que optimicen los procesos que rigen las operaciones de toda organización.
Aunado al interés por el manejo de las computadoras, el alumno aplicante debe contar con habilidades para percibir fenómenos complejos de distinta naturaleza, y talento para analizarlos en forma ordenada, lógica y objetiva.
Esta carrera inicia su curso otorgando conceptos básicos de Administración, Contabilidad, Derecho, Economía, Matemáticas y Sociología, indispensables para comprender el funcionamiento de todo tipo de empresas. Asimismo, se imparten conocimientos de ingeniería y manejo de software y hardware diversos.
Una vez que el alumno ha asimilado el manejo de conceptos administrativos y computacionales, se le proporcionan técnicas de análisis y diseño de sistemas necesarios para sistematizar el trabajo de oficina, los programas de producción y la toma de decisiones.
Conforme transcurren los semestres, se imparten materias indispensables para poder crear sistemas de información efectivos y rentables para toda empresa: Finanzas, Control Presupuestal, Comercio Electrónico, Inteligencia Artificial, Formulación y Evaluación de Proyectos, Ética Personal y Régimen Legal de la Informática.
El alumno aprende a detectar las relaciones a veces imperceptibles, pero siempre existentes entre cada operación administrativa, productiva o de servicios, y la relación que guardan sus atributos con el entorno empresarial, industrial, macroeconómico y ambiental.
El objetivo final de la carrera es lograr que a través de una correcta administración de la tecnología y pericia para implantar y manejar sistemas de datos, el egresado traduzca la información empresarial relevante y, considerando el entorno, comunique datos lógicos en un lenguaje que promueva el control, la productividad y la toma de decisiones costo-eficientes.
El egresado de esta carrera puede desarrollarse como consultor certificado integrante de un despacho especializado en consultoría administrativa o de sistemas; como creador de sistemas de información orientados a la mecanización de actividades y procedimientos administrativos de toma de decisiones o de control de producción; en la administración de los sistemas de información de organizaciones públicas o privadas, o bien dedicarse a la práctica profesional independiente.

SISTEMAS OPERATIVOS


Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del ordenador, los dispositivos hardware y el usuario.

Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento.

Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac. Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer.

Definición de Sistema Operativo

El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.

En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.

Clasificación de los Sistemas Operativos

Los sistemas operativos pueden ser clasificados de la siguiente forma:
Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no funcionan en tiempo real.

Cómo funciona un Sistema Operativo

Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux.

Cómo se utiliza un Sistema Operativo

Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.

Ejemplos de Sistema Operativo
A continuación detallamos algunos ejemplos de sistemas operativos:

Familia Windows

Historia de Windows



Para muchos usuarios hablar del sistema operativo de su ordenador es equivalente a hablar de Windows. Solo por eso vale la pena hacer un repaso a su historia, saber porqué es el sistema más utilizado e incluso, después, plantearse si es realmente el más adecuado a sus necesidades.

La creación



Para entender el producto es bueno conocer primero a sus creadores. Aunque ahora es sorprendente topar con alguien que no conozca a Bill Gates, hubo un tiempo en el que el mundo era diferente.


Cuando todavía era estudiante conoció a Paul Allen y años más tarde en 1975 decidieron montar su propia empresa. El primer objetivo fue desarrollar las versiones del lenguaje de programación BASIC para el equipo Altair. La empresa se llamaría Microsoft.


El primer logro de Microsoft fue el MS-DOS. En 1980 IBM está trabajando en el que sería su gran éxito, la IBM PC. Necesita un software para su proyecto y se lo encarga a Microsoft. Gates tiene poco tiempo así que compra el software a otra empresa, lo rebautiza con el nombre de MS-DOS y le vende la licencia de uso a IBM.


Afortunadamente para Microsoft el nuevo PC es todo un éxito, el resto de fabricantes lo imitan y piden la licencia de uso del MS-DOS. En poco tiempo el IBM PC se ha convertido en un estándar y Bill Gates en millonario. Las relaciones con IBM en el desarrollo del software continúan pero Windows pondría piedras en el camino.


Su nombre completo es Microsoft Windows. Nació en 1985 para ser un complemento del MS-DOS. La novedad del momento era su Interfaz Gráfica de Usuario (GUI) pero a pesar de ello el sistema tenía ciertas limitaciones y no se implantó con la firmeza que sus creadores hubieran querido.

Uno de los principales problemas que tuvo fue Apple, que para proteger su sistema operativo impedía que Microsoft plagiara su producto. Así que Microsoft no podía incluir en Windows cosas como la papelera de reciclaje o la superposición de las ventanas.

La evolución y las mejoras



Dos años más tarde llegó Microsoft Windows 2.0 y se haría un poco más popular que su antecesor. Paralelamente, Microsoft e IBM trabajaban conjuntamente en el desarrollo de otro sistema operativo el OS/2. Algunos dicen que esto era una estrategia de Gates para asegurarse su cuota de mercado.


OS/2 tenía una ventaja importante sobre Windows y es que aprovechaba mucho mejor la capacidad del procesador del momento, Intel 80286. Además también soportaba memoria virtual y multitarea.


Como ambos equipos cooperaban entre sí en el desarrollo de sus sistemas operativos para PC, cada uno tenía acceso al código del otro. Pero la versión más competitiva fue Windows 3.0 convirtiéndose en 1990 en un duro rival para el Macintosh de Apple.


En esta época empeoraba el entendimiento entre IBM y Microsoft, divergían en como enfocar el futuro de las investigaciones. Mientras que IBM se decantaba por el OS/2, Microsoft insistía en desarrollar todavía más Windows. La solución fue que IBM desarrollaría el OS/2 2.0 y Microsoft OS/2 3.0, superando así al OS/2 1.3 y Windows 3.0.


Pero las diferencias entre los dos gigantes eran demasiado grandes y finalizaron sus acuerdos. IBM sacó al mercado el OS/2 2.0 mientras que Microsoft rebautizaba su proyecto con el nombre de Windows NT.

Debido a los acuerdos entre las dos empresas los productos eran muy parecidos pero Microsoft pisó fuerte con la promoción de Windows NT y el público apenas lo notó. Windows se iba asentando en el mercado hasta que con el Windows 95 conseguía mayores cuotas que el OS/2.

Windows 95     

Windows 95 era en realidad un sistema operativo muy diferente al Windows NT pero Microsoft trabajó para hacerlos lo más compatibles posible. http://billstones.files.wordpress.com/2008/05/windows-95.jpg

Una de las mayores ventajas del nuevo Windows era que aunque necesitaba el MS-DOS como base tenía una instalación integrada. De esta manera el usuario solo tenía que instalar el Windows 95 mientras que con las versiones anteriores había que comprar los dos sistemas por separado e instalar Windows encima del MS-DOS.

La otra gran ventaja era que incorporaba un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores. Con este subsistema Microsoft se aseguraba las compatibilidades y evitaba que las nuevas aplicaciones dañaran a las otras.

Con esta versión, o mejor dicho nuevo sistema, Microsoft se ganaba la confianza del público. La gran evolución de Internet y la potencia que se conseguía en los equipos facilitaba la expansión de Intel y Microsoft. La repercusión fue tal que los fabricantes de controladores de dispositivos centraban sus productos en las dos marcas líderes. El mercado era de Microsoft
Windows ME     
Windows NT      
Windows 2000   
Windows 2000 server
Windows XP             
Windows Server 2003
Windows CE
Windows Mobile
Windows XP 64 bits
Windows Vista (Longhorn)
http://oreillynet.com/windows/2005/08/02/graphics/fig2.jpg

De Windows Vista hubo varias versiones:



Para el usuario doméstico: Vista Home Basic, Vista Home Premium, Ultimate Edition.
Para las empresas: Vista Business, Vista Enterprise.
Para los mercados emergentes: Vista Starter


Lamentablemente, la recepción del público fue negativo debido a sus fallas y poca eficiencia, sobre todo en materia de seguridad y requerimientos del sistema. Fue eso mismo lo que motivó que la siguiente versión del sistema operativo, Windows 7, saliera con más anticipación de la que se había previsto. Windows 7 fue lanzado públicamente el 22 de octubre de 2009 y dice ser más eficiente y rápido que su antecesor, además de algunos cambios en la interfaz y es más adaptable a su uso en sistemas de pantalla táctil.


Por último, Windows Server 2008. Es una evolución del Windows Server 2003 basada en la interfaz de Windows Vista pero más sencilla. Fue presentado públicamente el 27 de febrero de 2008.


Los alrededores de Windows


Microsoft ha sido acusado y criticado por promover el monopolio en más de una ocasión. También se ha visto envuelto en polémica por competencia desleal y, según algunos, copió el sistema operativo de Apple.


Se le critica por ejemplo, que el fabricante esté obligado a incluir su Windows en la máquina que produce. Cada vez son más los que reclaman Linux, tanto es así que Dell ha empezado a sacar nuevos modelos, pocos eso sí, con el sistema operativo alternativo.

Además, ahora que el software libre está creciendo y haciéndose cada día más popular se le recrimina a Microsoft que su código sea cerrado. Quizás uno de los pocos aspectos en los que el propietario de Microsoft coincide con la crítica es la falta de seguridad, el propio Bill Gates ha reconocido en alguna ocasión que es una de las prioridades de su empresa, el handicap que tienen que superar. Es también, en parte, el precio que tiene que pagar por ser El estándar. Su situación atrae a los fabricantes y compradores pero también a los hackers.


La discusión y la polémica rodea a Windows y a Microsoft, Internet está lleno de foros con fervientes atacantes y defensores de la empresa y su sistema operativo. Decidir que sistema es el mejor es difícil, algunos se decantan por Apple, otros por Linux y otros por Windows.


En general se suele decir que el de Apple y Linux son más estables y seguros y de Windows que es más sencillo de utilizar. Está claro, y perdonen el escepticismo, que no se va a llegar a una conclusión definitiva, lo importante será entonces conocer un poco de cada uno para que el usuario escoja aquel con el que se sienta más cómodo.

Familia Macintosh

Historia y evolución del Sistema Operativo Mac OS

Hoy 26 de Octubre llega el lanzamiento oficial del Mac OS X 10.5 “Leopard“. La evolución del sistema operativo de Apple continúa y aprovechamos a conocer su historia, desde su nacimiento en 1984 con el Sistema 1 y su respectiva evolución.

Panorámica histórica sobre el Sistema Operativo Mac

El Sistema Operativo Mac OS no fue la primer interfaz gráfica, pero fue la primera con gran éxito por su accesibilidad de precio. Para aquellos años en el mercado lo que existía era La Xerox Alto con un costo de 32,000 dólares, la Xerox Star costó 16,600 dólares y la Apple Lisa con un precio de 10,000 dólares. El nombre de esta Apple fue un capricho de Steve Jobs por su hija. Este Sistema 1 venía incluido en el primer Macintosh, que tenía un precio de 2,500 dólares.



1984: Sistema 1

El Sistema 1 tenía escritorio, ventanas, iconos, mouse, menús y scrollbars.

El basurero “Trash” funcionaba como un tobogán de basura, todo desaparecía luego de reiniciar el ordenador, no se podía trabajar en dos aplicaciones al mismo tiempo, solo en una, ya que la memoria virtual no existía.

En el Sistema 1 era imposible crear un folder dentro de otro folder, de hecho todos los archivos eran guardados en la misma dirección del disco, se creaba una nota en la tabla de archivos para que cada archivo estuviera en su respectivo folder y así el Finder podría parecer como que el archivo estaba en su folder.

Luego el Sistema 1.1 agregó la caja de avisos de diálogo, también el comando para limpiar tu Mac y algunos implementos para la velocidad.



1985: Sistema 2

El Sistema 2 fue notable en mejoras. Incrementó la velocidad del Finder haciéndolo un veinte por ciento más rápido, los comandos de regresar y cerrar se eliminaros. Fueron agregadas más opciones como: crear nuevos folders, apagar, la impresora de escritorio y los ítems eran listados de forma vertical con un pequeño icono. Los discos o unidades podían ser arrastrados al icono de basura y podían ser extraídos.



1986: Sistema 3

En el Sistema 3 el Finder fue mejorado y más rápido, el orden de los archivos HFS (Hierarchical File System) fue reemplazado por el nuevo sistema de Macintosh MFS (Macintosh File System) de los Sistemas 1 y 2.



Los folders eran reales y se podían crear folders dentro de folders. Los iconos con Zoom fueron agregados en la parte inferior derecha en la ventana dentro del Dashboard, haciendo clic sobre estos se podía cambiar el tamaño para ajustar los contenidos del folder si era posible.

Haciendo clic nuevamente se podía hacer que la ventana regresara a su tamaño normal. El icono del basurero sobresalía cuando algo era puesto sobre este y las líneas punteadas en dirección contraria.

El Sistema 3.2, se corrigieron treinta errores, la calculadora fue actualizada así que el teclado numérico en pantalla se parecía al teclado numérico en el teclado.

El Sistema 3.3, fue agregado por AppleShare el antiguo compartidor de archivos de Macintosh.

1987: Sistema 4

El Sistema 4 fue introducido como Macintosh SE y Macintosh II. A este sistema se le agregó múltiple soporte al monitor.

El Sistema 4.1, soportaba discos de 32+ MB, se le implemento el Finder múltiple, los usuarios podían cambiar entre el Finder, que solo soportaba un programa y el Finder múltiple que soportaba múltiples programas al mismo tiempo.

Ahora el Finder mostraba cuanta memoria utilizaba cada programa, también se le agregó un Panel de control configurable.

El Sistema 4.3, fue un sistema actualizado, se le arreglaron algunos errores y controladores de impresora.

1988: Sistema 6

En el Sistema 6 se agregaron colores, aun así el Finder no tenía color, aunque las máquinas ya eran capaces. A la opción de “Borrar Disco” se le agrego un botón para poder cancelar esta acción, también fue agregada la opción de mostrar el número de versión del archivo.

Fue así también agregada una notificación en el monitor permitiendo a los programas notificar a lo usuario por medio de la barra de menú si ellos necesitaban conectarlo.

El Sistema 6.0.1-6.0.8, simplemente se agregados algunos soportes para los nuevos modelos que ellos iban lanzando.

1990: Sistema 7

El Sistema 7 fue el gran cambio de software para esta época, se eliminó el Finder y el Finder múltiple. El Sistema 7 ya sólo tenía el Finder múltiple permitiendo hacer muchas tareas simultáneamente.

La memoria también tuvo un gran cambio a 32b, esto permitió a las Macs usar mas de 8 MB de Ram, en el sistema operativo, esto fue también implementado en el Sistema 7.

El Networking por Apple Talk y compartir archivos por AppleShare fue agregado al sistema operativo, como opción adicional. El software QuickTime multimedia también fue trabajado en este sistema, pero estaba disponible como un software extra. El Sistema 7 agregó muchas características que iban a ser construidas en el nuevo sistema Mac OS X.

Un menú fue agregado en la parte inferior derecha del Dashboard, que mostraba la lista de los programas que estaban siendo utilizados en ese momento y permitía a los usuarios cambiarse entre ellos. Luego de la aplicación de menú fue agregado el menú de “Ayuda”, el “basurero” fue cambiado a un verdadero folder permitiendo eliminar los archivos hasta que se seleccionaba la opción de “Vaciar” el basurero.

Fue implementada la opción de arrastrar que permitía llevar un texto de un programa a otro sin necesidad de copiar y pegar. En el Sistema 7 el buscador finalmente tomo una ventaja en los objetos con color, haciendo que los elementos en la interfaz se vieran como en 3D.

El Sistema 7.0.1p Performa, fue lanzado junto con el Sistema 7.0.1’s, arreglando algunas características especiales para usuarios principiantes de este Sistema.

El Sistema 7.1, se le implemento un folder de Fuentes así que podían ser fácilmente agregados o removidos, luego estos fueron agregados y utilizados por el mismo Sistema.

El Sistema 7.1.1, también conocido como Sistema 7 Pro, Incorporando AppleScript, QuickTime, y PowerTalk, estos estaban disponibles como extras del sistema.

El Sistema 7.1.2, fue creado para soportar Chips de microprocesadores.

El Sistema 7.5, integraba todas las características del Performa, también agregaba mucha más información de la Guía de ayuda del sistema de Apple (Apple Guide help system). Finalmente en la pantalla de arranque existió una pequeña barra.

A pesar de que Mac había trabajado durante once años llegando hasta el Sistema 7.5, esto mostraba claramente de que Mac necesitaba completamente una nueva creación del Sistema Operativo.

Mac OS 7.6, fue el primer sistema operativo lanzado con una estrategia de Apple para luego ser actualizado como el actual Mac OS cada 6 meses, hasta que Rhapsody/Mac OS X fuera finalizado. Fueron corregidos algunos errores vía Mac Os 7.6.1

1997: Mac OS 8

Mac OS 8 incluyó otra renovación al Finder que podía hacer más cosas al mismo tiempo, dando la opción de controlar múltiples aplicaciones al mismo tiempo con un mejor desempeño de las computadoras con procesador.

La apariencia del Finder fue renovada para que tuviera un mejor aspecto 3D, también podía ser personalizada. El Web Sharing permitía a los usuario hospedar páginas en sus computadoras.

Mac OS 8.1, fue mas notable para el HFS+ (Esta improvisada versión del Sistema de archivos jerárquica que fue introducido en el Sistema 3) liberaba gran cantidad de espacio (Cientos de Megabytes) en el disco duro despejaba mas de 1 GB. Mac OS 8.1. También fue la ultima versión que soportaba Macs de 68K, todas las versiones anteriores eran solo para PowerPC.

Mac OS 8.5, introdujo Sherlock un avanzado programa de búsqueda que trabaja en el disco local, servicios de redes y la Internet.

Mac OS 8.6, agregó una opción de contenido a Sherlock aumentando su forma de administración y un agregado soporte de USB y FireWire.

1999: Mac OS 9

La opción de tener varios usuarios en una Mac fue agregada en esta versión, permitía a los usuarios ingresar y tener sus propias configuraciones. AppleTalk sobre TCP/IP fue también implementado.

Software Update permitía a los usuarios tener las actualizaciones de softwares fuera de Internet, y podía informar a los usuarios de las nuevas actualizaciones cuando ellos salían.

Mac OS 9.0.2 y 9.0.3, llegaron con sus modelos específicos, Mac OS 9.0.4 unificó todo nuevamente y es la única versión del Classic Mac OS compatible con el Entorno Classic del Mac OS X Public Beta.

Mac OS 9.1, agregó estabilidad y la ventana de menú. Esto es lo mínimo del Classic en Mac OS X 10.0 y 10.1.

Mac OS 9.2, estaba disponible como pre-instalación del sistema iniciando con “Quicksilver” Power Mac G4s lanzado en el verano del 2001.

Mac OS X

Esta basado fuertemente en las PowerPC-port de OpenStep. Por eso Mac OS X hereda la memoria y procesador de Mach’s y el driver del dispositivo de la interfaz, BSD’s POSIX – UNIX Protocolo del programa que soporta y trabaja en interfaz de redes, también algunos elementos de la interfaz de NeXT’s.



Mac OS X, hoy en día este sistema operativo esta virtualmente en todas las Mac’s, y fue trabajado por una década para poder obtener el éxito que tiene ahora.



2001: Mac OS X 10.0 “Cheetah”

Mac OS X 10.0 fue lanzada el 24 de marzo del 2001, este incorporaba muchas características que fueron agregadas por las personas que colaboraron en Mac OS X Public Beta.

Mac OS X 10.0 también contenía todas características de un sistema operativo moderno, protegía la memoria, y así los programas no podían utilizar la información de otros programas, de esta forma el procesador no se bloqueaba, los drivers de los dispositivos podían ser cargados o descargados si eran necesario.

Mac OS X también agrego Cocoa, derivado de NeXT’s un muy sofisticado y desarrollado ambiente OpenSTEP. Existían algunos asuntos pendientes, como el original Mac OS. Los usuarios de Mac OS X iniciaron a crear una gran queja sobre nombre que tenia este sistema operativo “Cheetah” que era muy salvaje e inapropiado.

El ambiente Classic en 10.0, también era mejor que el Public Beta, aun tenia una extraña compatibilidad de problemas y conducta caprichosa. Los interfaz de Mac OS X se veía muy parecida a la interfaz de Mac OS y los usuarios creían que tenían las mismas características sin embargo no fue así y tuvieron que aprender nuevos hábitos y dejar los viejos.

2001: Mac OS X 10.1 “Puma”

Mac OS 10.1 fue lanzado luego de un año del 10.0, e incorporaba mejor desempeño especialmente en Macs G3. Las versiones 10.1.1, 10.1.2, 10.1.3, 10.1.4, y 10.1.5 todas tenían mejora en los errores, y actualizaciones en sus componentes. La mayoría de open source como utilidades de UNIX fueron incluidas en las Mac OS X y drivers adicionales para poder soportar mas dispositivos.



2002: Mac OS X 10.2 “Jaguar

El 25 de agosto de 2002 fue lanzada esta versión y Apple prosiguió con la andadura de su sistema operativo con el lanzamiento de Mac OS X v10.2 “Jaguar”) y que contaba con un nuevo incremento en su rendimiento, un nuevo y depurado look y más de 150 mejoras, entre estas estaba el mayor soporte para redes de Microsoft Windows, Quartz Extreme para la composición de gráficos sea procesada directamente por la tarjeta de video y un filtro contra spam.

Apple Address Book para almacenar la información de contactos, tambien agregaba el sistema de red Rendezvous. iChat que consistía en un programa de chateo con soporte de AOL Instant Messenger, incluía así un renovado Finder con búsquedas integradas en cada ventana.



2003: Mac OS X 10.3 “Panther”

Mac OS X v10.3 “Panther” se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor, incorporó la mayor actualización en la interfaz de usuario, y muchas mejoras que Jaguar el año anterior. Esta versión ya no era compatible en los antiguos modelos G3.

Algunas de las mejoras de esta versión es que el Finder fue actualizado e incorpora una interfaz metálica y búsqueda rápida. Exposé permitía una nueva forma de manipular ventanas, también incorporo el Cambio Rápido de Usuarios, que permite tener sesiones con diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente.

Ahora esta nueva versión incluía soporte integrado de fax. FileVault era un Sistema de cifrado en tiempo real del directorio privado de cada usuario. Incrementaba velocidad en todo el sistema con un mayor soporte para los G5.

2005: Mac OS X 10.4 “Tiger”

Mac OS X v10.4 “Tiger” fue lanzado el 29 de abril de 2005 y fue la versión disponible más reciente, contenía más de 200 nuevas mejoras, pero como sucedió con el lanzamiento de Panther, algunas máquinas antiguas no podían soportarlo, en particular, cualquier equipo Apple que no contara con conexión FireWire no podía ser soportado en Tiger.

Esta versión incluya nuevas características como Spotlight un sistema de búsqueda basado en contenidos y metadatos, así también Dashboard se encontraban widgets, unas miniaplicaciones que permiten realizar tareas comunes y ofrecen acceso instantáneo a la información.

QuickTime 7 era la nueva versión que incluía soporte para H.264 y un interfaz completamente rediseñada. Safari como una nueva versión del navegador por defecto del sistema incorpora soporte para RSS, mayor velocidad y seguridad, etc.Esta versión tenía soporte de memoria de 64 bits para los nuevos G5, usando el sistema LP64.

2006: Mac OS X 10.5 “Leopard”

Mac OS X v10.5 “Leopard” es lanzada hoy 26 de Octubre de 2007. Esta versión es compatible con las PowerPC y con la nueva tecnología Intel. Entre las características de la nueva versión encontramos:



Time Machine: da la posibilidad de poder volver en el tiempo a una versión especifica de los contenidos de una carpeta, del disco duro completo, de un sólo archivo, de un rollo de fotos en iPhoto, etc.

Mail 3: es la tercera versión de este programa de correo electrónico de Apple ahora incluye Notas y To-Dos así como variados Templates para enviar email HTML.

iChat: da la posibilidad de chatear con tabs o de tener iconos animados, ahora también se tiene muchas funciones adicionales para los vídeochats. Desde presentar vídeos, compartir el escritorio, etc.

El Dashboard: trae una herramienta llamada Dashcode para crear Widgets fácilmente. Adicionalmente Safari tiene un botón “Webclip” que permite tomar cualquier fragmento de una página que se esté viendo y convertirla en un Widget. Accesibilidad, se crearon mejoras en las funciones de accesibilidad para que “todos puedan usar un Mac”.

El Finder: ahora con CoverFlow similar al de iTunes, tiene una función denominada QuickLook la cual permite abrir varios archivos a la vez con diferentes extensiones y no hay necesidad de abrir el programa, incluso los usuarios podrán hacer búsquedas en otras Mac conectadas en red.

El Dock: parece una bandeja de vidrio que recibe reflejos, cuenta con un stacks que permite apilar una serie de elementos y cuando se hace clic sobre él se despliegan en un abanico de opciones.

La mayor de ellas siendo un gran avance en las funciones de texto-a-voz con una nueva voz sintetizada llamada Alex, que incluso puede hablar claramente a altas velocidades. Además, trae soporte para pantallas Braille.



2009: Mac OS X 10.6 “Snow Leopard”

UPDATE: La más reciente versión del sistema operativo de Mac, apodado Snow Leopard, fue lanzado el 28 de agosto de 2009 y es más rápido que sus predecesores, además de tener varias nuevas características interesantes:

  • Nuevo exposé integrado en el Dock.
  • Es posible utilizar el touchpad para insertar caracteres chinos.
  • La zona horaria se ajusta automáticamente.
  • Ofrece soporte para conectarse a los servidores Microsoft Exchange 2007.
  • Menor consumo de espacio en disco duro y soporte (teórico) para un máximo de 16TB de RAM.
También hay que destacar las siguientes innovaciones:

  • Grand Central es una tecnología de programación que permite utilizar los procesadores multinúcleo y optimizar el rendimiento.
  • Quicktime X tendrá soporte optimizado para códecs actuales.
  • OpenCL (Open Computing Language) permitirá programar aplicaciones que utilicen la unidad de procesamiento gráfico para usos no gráficos.


Más sobre Apple


Apple cumple 25 años de haber lanzado su primer Macintosh al mercado: para los amantes de Apple que aún caer en la tentación de comprar los modelos más recientes, los invitamos a compartir su experiencia con los productos de Apple.

Mac OS 7
Mac OS 8
Mac OS 9
Mac OS X

Familia UNIX

Estandarización de UNIX



Debido a las múltiples versiones en el mercado de UNIX, se comenzaron a publicar estándares para que todas las s versiones fuesen 'compatibles'. La primera de ellas la lanzó AT&T llamada SVID (System V Interface Definition) que definiría cómo deberían ser las llamadas al sistema, el formato de los archivos y muchas cosas más, pero la otra versión importante, la de Bekeley (Berkeley Software Distribution o BSD) simplemente la ignoró.


Después la IEEE usó un algoritmo consistente en revisar las llamadas al sistema de ambas versiones (System V y BSD) y aquellas que eran iguales las definió como estándares surgiendo así la definición 'Portable Operating System for UNIX' o POSIX, que tuvo buen éxito y que varios fabricantes adoptaron rápidamente.


El estándar de POSIX se llama 1003.1 Posteriormente los institutos ANSI e ISO se interesaron en estandarizar el lenguaje 'C' y conjuntamente se publicaron definiciones estándares para otras áreas del sistema operativo como la interconectividad, el intérprete de comandos y otras. En la tabla 8.1 se muestran las definiciones de POSIX.


Estandar Descripción

1003.0 Introducción y repaso.
1003.1 Llamadas al sistema.
1003.2 Intérprete y comandos.
1003.3 Métodos de prueba.
1003.4 Extensiones para tiempo real.
1003.5 Lenguaje Ada.
1003.6 Extensiones para la seguridad
1003.7 Administración del Sistema.
1003.8 Acceso transparente a archivos.
1003.9 Lenguaje Fortran.
1003.10 Supercómputo.


Los Estándares de POSIX


Al momento del auge de los estándares de POSIX desgraciadamente se formó un grupo de fabricantes de computadoras (IBM, DEC y Hewlett-Packard) que lanzaron su propia versión de UNIX llamada OSF/1 (de Open Software Fundation).


Lo bueno fue que su versión tenía como objetivo cumplir con todas los estándares del IEEE, además de un sistema de ventanas (el X11), una interfaz amigable para los usuarios (MOTIF) y las definiciones para cómputo distribuido (DCE) y administración distribuida (DME).


La idea de ofrecer una interfaz amigable en UNIX no fue original de OSF, ya en la versión 3.5 de SunOS de Sun Microsystems se ofrecía una interfaz amigable y un conjunto de librerías para crear aplicaciones con interfaz gráfica técnicamente eficiente y poderosa llamada SunWindows o SunVIEW.


Esta interfaz junto con sus librerías estaban evolucionando desde la versión para máquinas aisladas hacia una versión en red, donde las aplicaciones podían estarse ejecutando en un nodo de la red y los resultados gráficos verlos en otro nodo de la red, pero Sun tardó tanto en liberarlo que le dio tiempo al MIT de lanzar el X11 y ganarle en popularidad.


AT&T formó, junto con Sun Microsystems y otras compañías UNIX International y su versión de UNIX, provocando así que ahora se manejen esas dos corrientes principales en UNIX.


Filosofía de UNIX


Las ideas principales de UNIX fueron derivadas del proyecto MULTICS (Multiplexed Information and Computing Service) del MIT y de General Electric. Estas ideas son:


Todo se maneja como cadena de bytes: Los dispositivos periféricos, los archivos y los comandos pueden verse como secuencias de bytes o como entes que las producen. Por ejemplo, para usar una terminal en UNIX se hace a través de un archivo (generalmente en el directorio /dev y con nombre ttyX).

Manejo de tres descriptores estándares: Todo comando posee tres descriptores por omisión llamados 'stdin', 'stdout' y 'stderr', los cuales son los lugares de donde se leen los datos de trabajo, donde se envían los resultados y en donde se envían los errores, respectivamente. El 'stdin' es el teclado, el 'stdout' y el 'stderr' son la pantalla por omisión (default).


Capacidades de 'entubar' y 'redireccionar': El 'stdin', 'stdout' y el 'stderr' pueden usarse para cambiar el lugar de donde se leen los datos, donde se envían los resultados y donde se envían los errores, respectivamente. A nivel comandos, el símbolo de 'mayor que' (>) sirve para enviar los resultados de un comando a un archivo. Por ejemplo, en UNIX el comando 'ls' lista los archivos del directorio actual (es lo mismo que 'dir' en DOS). Si en vez de ver los nombres de archivos en la pantalla se quieren guardar en el archivo 'listado', el redireccionamiento es útil y el comando para hacer la tarea anterior es 'ls > listado'. Si lo que se desea es enviar a imprimir esos nombres, el 'entubamiento' es útil y el comando sería 'ls
lpr', donde el símbolo "
" ( pipe) es el entubamiento y 'lpr' es el comando para imprimir en UNIX BSD.


Crear sistemas grandes a partir de módulos: Cada instrucción en UNIX está diseñada para poderse usar con 'pipes' o 'redireccionamiento', de manera que se pueden crear sistemas complejos a través del uso de comandos simples y elegantes. Un ejemplo sencillo de esto es el siguiente. Suponga que se tienen cuatro comandos separados A,B,C y D cuyas funcionalidades son:


A: lee matrices checando tipos de datos y formato.
B: recibe matrices, las invierte y arroja el resultado en forma matricial.
C: recibe una matriz y le pone encabezados 'bonitos'
D: manda a la impresora una matriz cuidando el salto de página, etc.
Como se ve, cada módulo hace una actividad específica, si lo que se quiere es un pequeño sistema que lea un sistema de ecuaciones y como resultado se tenga un listado 'bonito', simplemente se usa el entubamiento para leer con el módulo A la matriz, que su resultado lo reciba el B para obtener la solución, luego esa solución la reciba el módulo C para que le ponga los encabezados 'bonitos' y finalmente eso lo tome el módulo D y lo imprima, el comando completo sería ' A B C D '.


Sistema de Archivos en UNIX


El sistema de archivos de UNIX, desde el punto de vista del usuario, tiene una organización jerárquica o de árbol invertido que parte de una raíz conocida como "/" (diagonal).


Es una diagonal al revés que la usada en DOS. Internamente se usa un sistema de direccionamiento de archivos de varios niveles, cuya estructura más primitiva se le llama 'information node' (i-node) cuya explicación va más allá de este trabajo.


El sistema de archivos de UNIX ofreceun poderoso conjunto de comandos y llamadas al sistema. En la tabla 8.2 se muestran los comandos más útiles para el manejo de archivos en UNIX vs. VMS.

Manejo de Archivos en UNIX y VMS

La protección de archivos en UNIX se maneja por medio de una cadena de permisos de nueve caracteres. Los nueve caracteres se dividen en tres grupos de tres caracteres cada uno.


RWX             RWX                  RWX
1                2                      3

El primer grupo (1) especifica los permisos del dueño del archivo. El segundo grupo especifica los permisos para aquellos usuarios que pertenecen al mismo grupo de trabajo que el dueño y finalmente el tercer grupo indica los permisos para el resto del mundo.

En cada grupo de tres caracteres pueden aparecer las letras RWX en ese orden indicando permiso de leer (READ), escribir (WRITE) y ejecutar (EXECUTE). Por ejemplo, la cadena completa RWXR-XR-- indica que el dueño tiene los tres permisos (READ,,WRITE,EXECUTE), los miembros de su grupo de trabajo tienen permisos de leer y ejecutar (READ,EXECUTE) y el resto del mundo sólo tienen permiso de leer (READ).


Las llamadas al sistema más útiles en UNIX son 'open', 'close' e 'ioctl'. Sirven para abrir, cerrar archivos; y establecer las características de trabajo.


Por ejemplo, ya que en UNIX las terminales se accesan a través de archivos especiales, el 'ioctl' (input output control) sirve para establecer la velocidad, paridad, etc; de la terminal.


El núcleo de UNIX


El núcleo de UNIX (kernel) se clasifica como de tipo monolítico, pero en él se pueden encontrar dos partes principales [Tan92] el núcleo dependiente de la máquina y el núcleo independiente.


El núcleo dependiente se encarga de las interrupciones, los manejadores de dispositivos de bajo nivel (lower half) y parte del manejo de la memoria.


El núcleo independiente es igual en todas las plataformas e incluye el manejo de llamadas del sistema, la planificación de procesos, el entubamiento, el manejo de centinelas, la paginación e intercambio, el manejo de discos y del sistema de archivos.


Los procesos en UNIX


El manejo de procesos en UNIX es por prioridad y round robin. En algunas versiones se maneja también un ajuste dinámico de la prioridad de acuerdo al tiempo que los procesos han esperado y al tiempo que ya han usado el CPU.


El sistema provee facilidades para crear 'pipes' entre procesos, contabilizar el uso de CPU por proceso y una pila común para todos los procesos cuando necesitan estarse ejecutando en modo privilegiado (cuando hicieron una llamada al sistema). UNIX permite que un proceso haga una copia de sí mismo por medio de la llamada 'fork', lo cual es muy útil cuando se realizan trabajos paralelos o concurrentes; también se proveen facilidades para el envío de mensajes entre procesos.


Recientemente Sun Microsystems, AT&T, IBM, Hewlett Packard y otros fabricantes de computadoras llegaron a un acuerdo para usar un paquete llamado ToolTalk para crear aplicaciones que usen un mismo método de intercambio de mensajes.


El manejo de memoria en UNIX


Los primeros sistema con UNIX nacieron en máquinas cuyo espacio de direcciones era muy pequeño (por ejemplo 64 kilobytes) y tenían un manejo de memoria real algo complejo. Actualmente todos los sistemas UNIX utilizan el manejo de memoria virtual siendo el esquema más usado la paginación por demanda y combinación de segmentos paginados, en ambos casos con páginas de tamaño fijo.


En todos los sistemas UNIX se usa una partición de disco duro para el área de intercambio. Esa área se reserva al tiempo de instalación del sistema operativo. Una regla muy difundida entre administradores de sistemas es asignar una partición de disco duro que sea al menos el doble de la cantidad de memoria real de la computadora.


Con esta regla se permite que se puedan intercambiar flexiblemente todos los procesos que estén en memoria RAM en un momento dado por otros que estén en el disco. Todos los procesos que forman parte del kernel no pueden ser intercambiados a disco. Algunos sistemas operativos (como SunOS) permiten incrementar el espacio de intercambio incluso mientras el sistema está en uso (en el caso de SunOS con el comando 'swapon').

También es muy importante que al momento de decidirse por un sistema operativo se pregunte por esa facilidad de incrementar el espacio de intercambio, así como la facilidad de añadir módulos de memoria RAM a la computadora sin necesidad de reconfigurar el núcleo.

El manejo de entrada/salida en UNIX



Derivado de la filosofía de manejar todo como flujo de bytes, los dispositivos son considerados como archivos que se accesan mediante descriptores de archivos cuyos nombres se encuentran generalmente en el directorio '/dev'. Cada proceso en UNIX mantiene una tabla de archivos abiertos (donde el archivo puede ser cualquier dispositivo de entrada/salida).

Esa tabla tiene entradas que corresponden a los descriptores, los cuales son números enteros [Deitel93] obtenidos por medio de la llamada a la llamada del sistema 'open'.

Llamadas al sistema de entrada/salida



En UNIX es posible ejecutar llamadas al sistema de entrada/salida de dos formas: sincronía y asíncrona. El modo síncrono es el modo normal de trabajo y consiste en hacer peticiones de lectura o escritura que hacen que el originador tenga que esperar a que el sistema le responda, es decir, que le de los datos deseados.



A veces se requiere que un mismo proceso sea capaz de supervisar el estado de varios dispositivos y tomar ciertas decisiones dependiendo de si existen datos o no. En este caso se requiere una forma de trabajo asíncrona. Para este tipo de situaciones existen las llamadas a las rutinas 'select' y 'poll' que permiten saber el estado de un conjunto de descriptores.

Conclusión

Unix es un sistema operativo apropiado para muchas aplicaciones, ya que ofrece muchas facilidades para proceso de textos (en un marco atractivo para programadores) y facilidades de comunicación entre usuarios y máquinas.



Unix es popular debido a que:

Es portátil, y por lo tanto, todo el software desarrollado en él es portátil también.
Se puede cambiar de máquina sin cambiar de sistema operativo ni de aplicaciones.
Es fácil de adaptar según los requerimientos del usuario.
Es muy fiable.
Es fácil de usar.
Tiene una amplia gama de utilidades.

Desde el punto de vista técnico, UNIX se refiere a una familia de sistemas operativos que comparten unos criterios de diseño e interoperabilidad en común. Esta familia incluye más de 100 sistemas operativos desarrollados a lo largo de 20 años. No obstante, es importante señalar que esta definición no implica necesariamente que dichos sistemas operativos compartan código o cualquier propiedad intelectual.




Sistemas Operativos 
AIX
AMIX
GNU/Linux
GNU / Hurd
HP-UX
Irix
Minix
System V
Solaris
UnixWare