jueves, 23 de febrero de 2012

LAS COMPUTADORAS Y EL PROCESAMIENTO DE LA INFORMACION


Configuración de sistemas

Un sistema de cómputo está integrado por un procesador central y otros cuatro dispositivos de hardware.

El procesador central contiene componentes que manejan la información para ponerla de manera más útil y controla las otras partes del sistema de cómputo.

Los dispositivos de almacenamiento o memoria secundaria (discos magnéticos, cintas) alimentan los datos y los programas en el procesador central y los almacenan para su uso posterior.

Los dispositivos de entrada, como teclados, scanners, mouse, transforman los datos y las instrucciones a una forma electrónica para alimentarla a la computadora.

Los dispositivos de salida, como las impresoras y terminales de pantalla de video, transforman los datos electrónicos producidos por el sistema de cómputo y los muestran de manera que las personas lo entiendan.

Los dispositivos de comunicación ayudan al control de las comunicaciones entre el procesador central, los dispositivos de entrada y salida y los usuarios finales.

Bits y bytes.

La máquina opera con magnetización y desmagnetización.

Para magnetizar se necesita algún elemento que recibirá un impulso eléctrico. De esa manera se están logrando dos propósitos, magnetizar ordenando todo aquello que desde el punto de vista de información computarizada se encuentra en él.

Cuando ese campo es magnetizado operan dos circunstancias, toda aquella información que a su vez es ordenada y que debe ser activada se va a transformar en:

1 - información con sentido

0 - información sin sentido

Esto funciona a través del sistema binario. Se magnetiza a la vez que se ordena

Todo lo que se está procesando, circulando, lo que conforma la CPU y la función que cumple todas aquellas unidades que están preparadas para el almacenamiento, trabajan con el 0 y el 1.

La mínima unidad de almacenamiento ya sea transitorio o definitivo se llama bit. El bit solo no dice nada, solo ocupa espacio. Bit x 8 = byte.

La mínima unidad de información se denomina byte.

Un bit puede informar un carácter alfabético o un carácter especial, mientras que un byte puede informar una letra o un número.

El verdadero binario no puede ser usado en una computadora porque además de representar números una computadora debe permitir la representación de caracteres alfabéticos y otros símbolos tales como & y $. Por ello se desarrolló los códigos binarios estándar.

Existen códigos comunes EBCDIC (código binario que representa todo número carácter alfabético o especial con 8 bits) y ASCII (código binario de 7 u 8 bits empleado en la transmisión de datos, en microcomputadoras y algunas computadoras mayores).

En su uso real EBCDIC y ASCII también contienen un noveno bit suplementario de paridad o verificación. Las computadoras se construyen con una paridad par o paridad impar. En una máquina de paridad par, la computadora espera que el número de bits en on en un byte siempre sean pares.

Pixel

Es la unidad más pequeña de datos para definir una imagen en una computadora. La computadora reduce un cuadro a una malla de pixeles. El término pixel viene de picture element.

Velocidad de procesamiento

El momento que requiere un procesador para ejecutar una instrucción o completar un ciclo de máquina es medido en unidades únicas de tiempo. Estas oscilan entre microsegundos, nanosegundos y picosegundos.

La velocidad en términos absolutos, se mide en función de cantidad de pulsos por palabra y depende de su tamaño.

Los dispositivos de almacenamiento secundario operan a velocidades de milisegundo (milésimos de segundo).

Una computadora de nivel medio opera a velocidades de microsegundos (un millonésimo de segundo).

Una unidad central de proceso de una macrocomputadora opera a velocidades de nanosegundos (mil millonésimas de segundo).

Almacenamiento - Memoria - Tamaño

La información se almacena en forma de 0 y 1 (dígitos binarios o bits) enlazados para formar bytes. Un byte puede ser usado para almacenar un carácter como una letra.

Mil bytes se denomina kilobyte (1024 posiciones de almacenamiento) empleado como medida de capacidad de almacenamiento en las microcomputadoras.

Un millón de bytes se denomina megabyte, unidad de capacidad en el almacenamiento de una computadora.

Mil millones de byte se denomina gigabyte, unidad de capacidad de almacenamiento de una computadora.

Problemas de coordinación en el software de computadora

Una unidad central de proceso puede procesar información infinitamente más rápido que el tiempo que se tarda la impresora en imprimirlo.

Es necesario colocar memorias adicionales y dispositivos de almacenamiento entre la unidad central de proceso y la impresora, de manera que la unidad central de proceso detenga el procesamiento de más información a medida que espera a que la impresora opere.

El CPU y el almacenamiento primario

Es parte del procesador central, es el área del sistema de cómputo donde se lleva a cabo el manejo de los símbolos, números y letras. Está integrado por:

Almacenamiento Primario.

Una unidad de control.

Una unidad aritmético lógica.

Almacenamiento Primario.

El almacenamiento primario tiene tres funciones. Almacena todo o parte del programa que está siendo ejecutado. También se almacenan los programas del sistema operativo que administran la operación de la computadora. Finalmente, el almacenamiento guarda datos que están siendo usados por el programa.

El tamaño del procesador refiere de manera directa a la capacidad de almacenamiento primario.

La memoria primaria o principal puede describirse en términos de ROM o RAM.

La memoria ROM o de lectura, contiene programas y datos permanentes, diseñados, desarrollados e instalados por el fabricante en el procesador. Los contenidos de la memoria ROM pueden accederse y usarse, pero no pueden ser modificados. Quien reside allí es el sistema de base (sistema operativo, su utilización es para que ponga el sistema en funcionamiento). Todo el contenido en la memoria ROM es el soft residente.

La memoria RAM o de lectura y acceso, es la memoria principal de los usuarios para almacenar sus datos y programas, accederlos y modificarlos dado que no tiene características de permanente. Se vincula con el sistema de aplicación del usuario por la propiedad que puede ser leído y modificado.

Estas memorias aparecen como base de arquitectura, es una necesidad.

Unidad de control

Dirige y coordina a todo el sistema de procesamiento, ejecutando las instrucciones de los programas y supervisando el flujo de los datos que circula por la unidad de memoria principal o primaria. Es quien le va a dar la posibilidad de que ello se realice un forma exitosa en la unidad de control.

Unidad aritmética lógica

Tiene a su cargo dos funciones necesarias. Una lógica que toma todo lo que ingresa en la memoria principal y la chequea controla desde el punto de vista unitario tratando de interpretar lo que ingresó. Si es una instrucción dirá que se aplique, si es un dato dirá que se procese. La otra aritmética, realiza funciones de suma, resta, las funciones de multiplicación y división las va a realizar a través de sumas y restas sucesivas.

La evolución del hardware de la computadora

Han ocurrido cuatro etapas muy importantes o generaciones de computadoras en la evolución del hardware de computadora, cada una distinguiéndose por una tecnología diferente para los componentes que llevan a cabo el procesamiento.

La primera y la segunda generación se basaban en la tecnología del bulbo y el transistor, mientras que la tercera y cuarta generación se basaron en la tecnología de los semiconductores.

Microprocesadores

Tecnología de circuitos integrados a gran escala que integran la memoria de la computadora, la lógica y el control en un solo chip.

Macrocomputadoras, minis, micros y supercomputadoras

Una macrocomputadora o mainframe es la categoría mayor de computadora clasificada como poseedora de una memoria en RAM desde 30 megabytes hasta 1 gigabyte.

Una minicomputadora es una computadora de nivel mediano poseedora de una memoria RAM desde 10 hasta 650 megabytes.

Una microcomputadora son las empleadas como máquinas personales poseen una memoria RAM de 640 kilobytes hasta 64 megabytes.

Una supercomputadora es una computadora muy sofisticada y muy poderosa que puede ejecutar muy rápido operaciones de alta complejidad.

Estaciones de trabajo

Es una computadora de escritorio con poderosas capacidades en gráficas y de carácter matemático y con la capacidad de realizar varios trabajos a la vez.

Reducción de tamaño y procesamiento cooperativo

El proceso de transferir aplicaciones de las computadoras más grandes a las más pequeñas se llama reducción. Tiene muchas ventajas, el costo, su mantenimiento y su uso.

El procesamiento cooperativo es un tipo de procesamiento que divide el trabajo de procesamiento por aplicaciones y tipo de operaciones entre las macro y microcomputadoras.

Almacenamiento secundario

Debido a la cantidad de almacenamiento que se necesita es preciso contar con el apoyo de almacenamientos auxiliares tales como:

Cinta magnética, medio de almacenamiento secundario barato y relativamente estable en donde grandes volúmenes de información se almacenan de manera secuencial por medio de segmentos magnetizados y no magnetizados de cinta.

Disco magnético, se conoce típicamente como un dispositivo de acceso directo. Es un medio de almacenamiento secundario en que se guarda la información por medio de puntos magnetizados. Existen dos tipos de discos magnéticos: los disquetes o floppys (utilizados en las microcomputadoras) y los discos duros (se emplean en los tambores de discos comerciales y en las microcumputadoras).

Discos ópticos, almacenan datos de densidades mucho mayores. Es para memoria únicamente leída.

Dispositivos de entrada

L entrada es donde se inicia todo el proceso de información. La materia prima de la información son los datos.

Los datos de una transacción se ingresan al sistema por 2 formas:

Forma diferida o en lotes

Forma directa o en tiempo real.

Métodos de entrada

El teclado, es la forma más común de introducir los datos al sistema. Hay dos modalidades

Teclado-Almacenamiento, los datos ingresados van a un soporte (escala intermedia)

Teclado-Sistema, denominado también teclado directo, los datos son tecleados mediante una estación de trabajo conectada directamente al sistema de procesamiento.

Lectura de caracteres, denominados también automatización de datos fuentes. La lectura puede ser:

Lectura óptica.

Lectura magnética, aquí el documento debe tener un área que es magnetizable.

La diferencia entre ambas está en la herramienta técnica utilizada.

Otros métodos, existen otro métodos de entrada.

microfilm para entrada a computadora

imágenes

teclados tipo calculadora

ratón

tabletas digitalizadoras

esferas de pista

tacto

vos

terminales manuales.

Dispositivos de salida.

Los principales dispositivos de salida son la terminal de tubo de rayos catódicos (TRC) y las impresoras.

Entre otros dispositivos de salida se encuentra los dispositivos de salida de voz que transforma la salida de datos en palabras habladas.

Multimedia

Es la tecnología que facilitan la integración de dos o más tipos de medios como texto, imagen, sonido, video o animación en una aplicación de computadora.

jueves, 19 de enero de 2012

NOTICIAS DE INTERES

Avanza consolidación Sistema de Información Socioeconómica


Continuando con el levantamiento del Sistema de Información Socioeconómica y de Cuentas Regionales para el Departamento, la Fundación para el Desarrollo del Quindío avanza en la consolidación de la cuenta del sector satélite de turismo.

En esta fase se realizó el cálculo del PIB del sector para la vigencia 2010 a partir de la oferta, así como la proyección de la demanda para el 2011, para lo cual se estableció  acercamiento tanto con los proveedores turísticos de la región, como con el consumidor directo.

En la primera fase del proyecto, fue posible adelantar la consolidación de la información del sector Transporte, Correo y Telecomunicaciones del Departamento, así como avanzar en la construcción de los diferentes módulos de la Plataforma Tecnológica, que permitirá construir y divulgar los datos recolectados, además de articular la información de los Sistemas de Cuentas Regionales de Quindío, Risaralda y Caldas.
El proceso permitió determinar que el sector representa una cifra significativa. Sin embargo, el reto es grande.

Entre tanto el proyecto; que busca consolidar las principales estadísticas económicas de la región de manera actualizada, confiable y oportuna, para que sirvan de soporte y faciliten la toma de decisiones a  empresarios, dirigentes políticos, organizaciones y a la comunidad en general; queda a la espera de que la nueva administración departamental le de continuidad.

NOTICIAS DE INTERES

Sierra Nevada tendrá en 2012 operativo el sistema de información "Linaria


Este centro, puesto en marcha en 2007, está marcado por la estrecha colaboración entre técnicos y científicos para posibilitar la adaptación de los sistemas y recursos naturales ante los procesos de cambio global. Otro de los puntos del orden del día ha sido el relativo a las actuaciones que se han de realizar para la conservación de la biodiversidad, en concreto para aquellas comunidades vegetales especialmente vulnerables al cambio climático, como son los enebrales, los sabinares, los robledales y los encinares, actuaciones que está previsto que cuenten con una inversión total de más de 9,3 millones de euros para diferentes proyectos. También para la naturalización, diversificación y mejora de masas forestales de repoblación hay contemplados proyectos con una inversión de 2,3 millones de euros. En cuanto a la recuperación de flora amenazada, en 2012 se publicará el Plan de Conservación y Recuperación de Especies de las Altas Cumbres de Andalucía, cuyo principal núcleo de actuación se localiza en Sierra Nevada. Para la conservación de la fauna, continúa el programa de gestión de ungulados silvestres –cabra montés y jabalí–, así como con la ejecución del proyecto de restauración de hábitats piscícolas, con una inversión de 570.000 euros. El Consejo de Participación de Sierra Nevada también ha destacado la participación de la montaña penibética en el proyecto andaluz de mantenimiento de áreas cortafuego mediante pastoreo. En el macizo se han seleccionado cuatro pastores que trabajan con más de 1.500 cabezas de ganado entre ovino y caprino. Otra de las líneas de trabajo importantes a desarrollar en Sierra Nevada es la referente a los aprovechamientos y usos tradicionales: actividades cinegéticas, ganaderas y los proyectos asociados al mantenimiento y mejora de las infraestructuras viarias de acceso a montes públicos. En este último apartado hay varias iniciativas puestos ya en marcha con unas inversiones de 5,21 millones de euros para la zona del nacimiento del Río Andarax, y de 4,26 millones para los valles del río Chico y del Arroyo Huenes. Para los equipamientos y servicios de uso público, a lo largo de 2012 van a prolongarse diversos proyectos ya iniciados, cuyo principal objetivo es reforzar las actividades en materia de educación ambiental. Por ejemplo, la puesta en marcha y señalización de la ruta para bicicletas de montaña "Transnevada", con una inversión total de más de 900.000 euros. También en este año entrarán en servicio dos senderos de accesibilidad universal del Puerto de la Ragua, con lo que se refuerzan los equipamientos y servicios de este lugar estratégico. La inversión asciende a más de 220.000 euros. A principios de 2012 también se finalizará la redacción del proyecto de Centro de Visitantes de Hoya de la Mora (Monachil), cuya financiación corresponde al Organismo Autónomo Parques Nacionales. El Consejo de Participación del Parque Nacional y Natural de Sierra Nevada ha abordado en otro de sus puntos los avances en los ámbitos del uso público, ganadería extensiva tradicional e investigación. El objetivo de estos planes es definir las fórmulas de gestión y las directrices que regirán las actuaciones en cada uno de los programas. El Plan de Uso Público tiene como finalidad asegurar el funcionamiento operativo de las instalaciones en todo el espacio, así como de las adecuadas actuaciones de comunicación e información con los distintos sectores de la población local relacionados con el parque. Por su parte, el Plan de la ganadería extensiva tradicional tiene como objetivos mejorar el desarrollo económico-cultural del medio rural en los municipios del área de influencia socioeconómica del espacio, así como avanzar en la conservación de los ecosistemas y paisajes en el entorno de Sierra Nevada. El Plan de Investigación pretende generar una ciencia de calidad y que atienda a los problemas y necesidades asociadas a la gestión. También, divulgar los conocimientos generados a todos los niveles de la sociedad y coordinar las actividades de investigación con otras llevadas a cabo en el espacio natural.

miércoles, 18 de enero de 2012

EXITO Y FRACASO DE LOS SISTEMAS


El Fracaso de los Sistemas de Información.

La falla de sistemas: es un sistema de información que no opera como se esperaba, o no está en operación en un tiempo especificado o no puede ser utilizado de la manera esperada. Los usuarios necesitan desarrollar procedimientos manuales en paralelo para hacer que los sistemas trabajen adecuadamente (ej. Continuar manteniendo todos los datos en forma manual a pesar de la presencia de un sistema automatizado).

En algunos sistemas casi todos los informes preparados para la administración prácticamente nunca son leídos. Se consideran como inútiles y llenos de cifras sin consecuencias para la toma o análisis de decisiones.

Otros sistemas automatizados permanecen intactos, ya sea porque son demasiado difíciles de utilizar o porque sus datos no son de confianza.

También otros sistemas fracasan a causa de retrasos en el procesamiento, costo de operación excesivos o problemas de producción crónicos (ej. Un sistema se cae constantemente).

Área de problemas en los sistemas de infamación

Las principales áreas de problemas son:

•Diseño : El diseño real de un sistema falla al no captar los requerimientos esenciales del negocio. La información puede no ser proporcionada lo suficientemente rápida para ser útil, también puede venir en un formato imposible de digerir y usar, o puede representar los elementos equivocados de datos. Un sistema puede ser diseñado con una interface (parte del sistema con la que interactúa el usuario) pobre. Un sistema de información será juzgado como un fracaso si su diseño no es compatible con la estructura, cultura y metas de la institución.

•Datos Los datos en el sistema tienen un alto grado de imprecisión. La información en ciertos campos puede ser errónea o ambigua. Puede no estar bien fragmentada para los fines del negocio.

•Costo. El costo para implementarlos y operarlos en su fase de producción queda muy por encima del presupuesto. Los gastos excesivos no se pueden justificar por el valor aportado por el sistema de información.

•Operaciones El sistema no opera bien. La información no se la proporciona en tiempo oportuno y de manera eficiente ya que las operaciones de computadora que manejan el procesamiento de la información se caen. Las operaciones que abortan con mucha frecuencia llevan reprocesos excesivos y programas con retraso.

Medida del éxito de un sistema: ¿Cómo se podrá saber si un sistema tiene éxito o no?

La percepción y uso de los sistemas pueden quedar condicionados por variables personales y situacionales. Sin embargo, los investigadores de SIA han buscado un conjunto formal de parámetros del éxito del sistema.

•Nivel elevado del uso del sistema

•Satisfacción de los usuarios con el sistema. Criticas, opiniones.

•Actitudes favorables de los usuarios hacia los sistemas de información y el personal de sistemas.

•Grado en el que el sistema cumple con las metas establecidas.

•Recuperación financiera para la institución, disminuyendo costos o incrementando beneficios.

Causas de éxito y el fracaso de los sistemas de Información.

Un sistema de información transforma la manera que un individuo y los grupos interactúan, cambia la manera como la información se define, como se accesa.


El concepto de la implantación

Implantación: todas las actividades institucionales que trabajan hacia la adopción, administración y rutinización de una innovación.

Se cree que las instituciones deben escoger actores con características sociales apropiadas y desarrollar sistemáticamente papeles o roles institucionales, como “campeones de productos” con el objeto de que las innovaciones sean exitosas.

Dentro del contexto de la implantación, el analista es un agente de cambio. El analista no solo desarrolla soluciones técnicas sino redefine las configuraciones, interacciones, actividades de los puestos y las relaciones de poder de diversos grupos institucionales. El analista es el catalizador de todo proceso de cambio y es el responsable de asegurar que los cambios creados por un nuevo sistema sean aceptados por todas las parte involucradas.


Causas del éxito y fracaso en la implantación

No existe una explicación única del fracaso y el éxito de los sistemas. Sin embargo el resultado de la implantación puede quedar determinado por los siguientes factores en el proceso de implantación:

•Involucramiento e influencia del usuario: si los usuarios están fuertemente involucrados en el diseño del sistema, tiene más posibilidad de moldear el sistema de acuerdo a sus prioridades y requerimientos. Es muy posible que actúen positivamente hacia el sistema porque han sido participantes activos en el proceso de cambio. La incorporación de la experiencia y el conocimiento del usuario conduce a mejores soluciones.
•La brecha de comunicación entre diseñadores y usuarios: los usuarios y los especialistas en sistemas de información suelen tener formaciones académicas, intereses y prioridades diferentes. Esto se conoce como brecha de comunicaciones entre diseñadores y usuarios. Por un lado, los especialistas tienen una orientación técnica, buscan soluciones técnicas y sofisticadas. Por otra parte, los usuarios prefieren sistemas que se orienten a la solución de los problemas del negocio o que faciliten tareas. Los problemas de comunicación entre ambos son una de las principales razones por las que los requerimientos de los usuarios no quedan incorporados en los sistemas de información y en general son sacados del proceso de implantación.
•Apoyo de la administración: si la misma apoya, asegura que un proyecto de sistemas recibirá los fondos y los recursos suficientes para tener éxito.
•Nivel de complejidad y riesgo: mientras más grande sea un proyecto (por el gasto que implica, por el tamaño del equipo de implantación, por el tiempo asignado y el nro. De unidades afectadas) mayor será el riesgo. Otro factor de riesgo es la experiencia de la empresa con proyectos de diversas dimensiones.
Algunos proyectos son mucho más estructurados que otros. Sus requerimientos son claros, de manera que los resultados pueden definirse más fácilmente. Estos proyectos tienen un riesgo menor que aquellos cuyos requerimientos no están más que relativamente definidos, son cambiantes.

El riesgo será mayor si el equipo del proyecto y el personal de sistemas carecen de conocimientos técnicos
•Administración del proceso de implantación: el desarrollo de un nuevo sistema debe ser cuidadosamente administrado y coordinado. Cada proyecto implica investigación y desarrollo.

•Ignorancia y optimismo: las técnicas para estimar la longitud de tiempo requerida para analizar y diseñar sistemas están muy poco desarrolladas. No usan normas sino estimaciones tales como "en el mejor de los casos" los cuales tienden a ser optimistas y erróneos. Se supone que todo saldrá bien cuando de hecho nunca pasa.

•El mítico mes-hombre: la medida tradicional usada por los diseñadores para proyectar costos es el mes-hombre (cantidad de trabajo que una persona puede hacer y terminar en un mes), es decir, los proyectos se estiman en términos de cuantos mese hombre serán necesarios. Las personas y los meses no se pueden intercambiar en el corto plazo en el proyecto de sistema, en otras palabras añadir más trabajadores en los proyectos no necesariamente reduce el tiempo que se necesita para completar un proyecto de sistemas.
El análisis y diseño de sistemas implica tareas que están ligadas de manera secuencial y requieren comunicaciones y capacitación. El desarrollo de software es inherente a un esfuerzo grupal y por lo tanto al aumentar las personas integrantes aumenta también el costo, de esta manera añadir trabajo a los proyectos puede resultar una entrega lenta, porque los costos de comunicación, aprendizaje y coordinación crecen muy rápidamente y se restan del resultado de los participantes.

•Las malas noticias siempre llegan tarde a los niveles altos: los portadores de malas noticias no son apreciados, la dirección con frecuencia es mantenida en la oscuridad. Los trabajadores de sistemas saben que la dirección ha prometido una fecha de entrega a un grupo de usuarios, que se han gastado millones de dólares y que el futuro depende de la entrega oportuna de todo un sistema. Cuando el proyecto se rezaga, nadie desea molestar a la alta dirección con detalles mínimos del atraso.

El proceso de implantación: ¿Qué puede salir mal?

Se considera que los siguientes problemas son típicos de cada etapa de desarrollo de sistemas cuando el proceso de implantación es administrado pobremente:

Análisis:

•No se han asignado tiempo, dinero y recursos para investigar el problema. El personal no le dedica tiempo al proyecto. Los usuarios no están representados en el equipo.

•Los usuarios no colaboran con el equipo del proyecto para que capten la información necesaria.

•El personal del servicio de información promete resultados imposibles de alcanzar.

•Los requerimientos provienen de documentación inadecuada de sistemas existentes.

Diseño:

•El diseño refleja los sesgos del personal técnico.

•El sistema está diseñado para servir únicamente a las necesidades actuales.

•Cambios drásticos en los procedimientos de los empleados o de otro personal son planeados sin ningún análisis de impacto institucional.

Programación:

•Fue subestimado el tiempo y el dinero para el desarrollo del software.

•Fueron incompletas las especificaciones dadas a los programadores.

•No se destina el tiempo suficiente para el desarrollo de la lógica de programas.

•Los programas se escriben de manera difícil de modificar.

Pruebas:

•Fue subestimado el tiempo y el dinero requeridos para hacer las pruebas.

•El equipo del proyecto no desarrolla un plan organizado de pruebas.

•Los usuarios no están involucrados en las pruebas.

Conversión:

•Presupuesto insuficiente para las actividades de conversión.

•La capacitación se inicia solamente cuando el sistema está a punto de ser instalado.

•La documentación del sistema y la de los usuarios son inadecuadas.

•El mantenimiento del sistema es inadecuado.

Administración de la implantación.

La posibilidad de éxito de los sistemas puede incrementarse al anticipar problemas potenciales en la implantación y al aplicar estrategias correctivas.


El control de los factores de riesgo

Los implantadores deben adoptar un enfoque de contingencia para proteger a la administración. Existen 4 técnicas administrativas para proyectos:

•Herramientas externas de integración: técnica de administración de proyectos que enlaza el trabajo del equipo implantador con el de los usuarios.

•Los usuarios pueden ser tomados como líderes de proyecto.

•Se pueden crear comités de orientación a los usuarios para evaluar al sistema.

•El proyecto puede implicar revisión formal de los usuarios.

•Los usuarios pueden quedar a cargo de la capacitación y de la instalación.

•Herramientas internas de integración: técnica de administración de proyectos que asegura que el equipo de implantación opera como unidad.

•Los miembros del equipo deben ser altamente experimentados.

•El líder del equipo será un gerente con antecedentes técnicos y de administración de proyectos.

•Las habilidades técnicas que no se encuentren dentro de la institución deben buscarse fuera de la misma.

•Herramientas formales de planeación: técnica de administración de proyectos que estructura y secuencia las tareas, el tiempo de presupuestación y los recursos técnicos que se requieren para completar las tareas.

•Herramientas formales de control: herramienta de administración de proyectos que ayuda al seguimiento del progreso hacia la terminación de una tarea y al alcance de las metas.

El proceso de implantación requiere de cambio organizacional. Todo cambio puede implicar resistencia ya que diferentes usuarios pueden ser afectados por el sistema de distinta manera.

La estrategia de implantación debe no sólo estimular la participación de los usuarios, sino también atacar la cuestión de contra implementación, es decir, una estrategia deliberada para coartar la implantación de un sistema de información.

Es posible explicar la resistencia de los usuarios con tres teorías:

•T. Orientada a las personas. Factores internos de los usuarios producen resistencia a las nuevas formas de hacer las cosas.

•T orientada hacia los sistemas. Por problemas en el diseño los usuarios se resisten a un sistema.

•T. de la interacción. El sistema es aceptado por un grupo de personas mientras que otros usuarios temen por la pérdida de poder.

Diseñando para la institución

El propósito de un nuevo sistema es mejorar el desempeño de la institución.

Un análisis de impacto organizacional explica como un sistema propuesto afectará a la estructura de la organización, a las actitudes, a la toma de decisiones, y a las operaciones.

Importancia del factor humano: las áreas en dónde el usuario tiene interface con los sistemas deberían ser diseñadas cuidadosamente. Este punto se refiere a la importancia de la ergonomía: interacción entre las personas y las máquinas dentro del ambiente de trabajo, incluyendo el diseño de puestos, cuestiones de salud y la interface con el usuario final de los sistemas de información.

El diseño socio tecnológico trata de producir sistemas de información que combinen la eficiencia técnica con la sensibilidad hacia las necesidades humanas e institucionales, logrando una elevada satisfacción en el puesto.

Las soluciones técnicas propuestas son comparadas con las soluciones sociales propuestas. Las soluciones técnicas y sociales que pueden ser combinadas se proponen como soluciones socio tecnológico.

ASEGURAMIENTO DE LA CALIDAD DE LOS SISTEMAS DE INFORMACION

La calidad en los Sistemas de Información

La administración de la calidad total es un concepto que hace de la calidad una responsabilidad total a ser compartida por todas las personas dentro de una institución, con el alcance del control de calidad considerado como un fin en sí mismo.

Como contribuyen los Sistemas de Información a la Administración de la calidad total.

Mientras más trata una empresa de llevar a cabo su programa, más los sistemas de información pueden contribuir a su éxito en toda la empresa.

Los sistemas de información pueden desempeñar un papel especial en los programas corporativos de calidad porque están profundamente involucrados con el trabajo diario de otros departamentos a lo largo de toda la institución.

La necesidad de aseguramiento de la calidad en el software.

La producción de software es única y presenta su propio conjunto de problemas. Una característica especial del desarrollo de software es que su meta normal es construir sólo un ejemplar del producto final. Para la mayor parte de los productos manufacturados una vez que se inicia el desarrollo, se fabrican cientos, miles o aun millones de copias del producto. Con el software, los problemas de calidad deben resolverse desde la primera vez; el diseño debe ser de la más alta calidad a la primera.

El cumplir con las necesidades del usuario puede ser difícil en un proceso en donde el usuario final se compromete con el producto antes de que éste se haya construido. La mayor parte de los proyectos de desarrollo de sistemas se inicia en la definición de los requerimientos de información del usuario y en las especificaciones en la forma de análisis de sistemas y documentos de diseño.

Mantenimiento.

El mantenimiento, el proceso de modificación de un sistema en uso productivo, es la fase más cara del proceso de desarrollo de sistemas.

La empresa puede experimentar fuertes cambios internos en su estructura o liderazgo, o el cambio puede venir del medio ambiente. Estos cambios organizacionales afectan los requerimientos de información. Pero una causa igualmente común de problemas de mantenimiento a largo plazo es el análisis de requerimientos de información.

Para ser capaz de manejar el mantenimiento rápida y económicamente, un sistema de software debe ser flexible. Un sistema flexible puede ser reparado de manera más rápida y fácil cuando ocurran los problemas. Tal sistema puede también ser modificado a medida que los requerimientos de los sistemas cambien con el tiempo, que es con toda seguridad lo que ha de pasar. De lo contrario un sistema que pueda tener éxito en el corto plazo puede ser un fracaso en el largo. La inflexibilidad es un problema muy común. Sin embargo, aun cuando diseñen un sistema flexible, la flexibilidad puede llegar a verse como demasiado cara y consumidora de tiempo. Sus beneficios no siempre son comprendidos o apreciados por los usuarios.

Monsergas y Defectos.

Un problema importante con el software es la presencia de monsergas ocultas o defectos en el código de programas. Es imposible eliminar a todas las monsergas de los grandes programas. La fuente principal de monsergas es la complejidad del código de toma de decisiones.

Pero la presencia de estas monsergas puede tener resultados costosos y aun desastrosos

Un sistema de calidad debe:

•Alcanzar las metas de los negocios articuladas por el departamento de usuarios.

•Operar a un costo aceptable, dimensionalmente congruente con el valor producido para la empresa.

•Cumplir escrupulosamente con las normas de desempeño definidas (como tiempo de respuesta y disponibilidad de sistemas).

•Producir un resultado preciso y confiable.

•Ser fácil de aprender y utilizar.

•Ser flexible.

Algunas soluciones a problemas de calidad en Sistemas de Información.

Los sistemas de información son complejos, y las soluciones a problemas de calidad también.

El papel de las metodologías.

Para limitar los problemas e incrementar la calidad al construir sistemas, los desarrolladores deben empezar con una metodología disciplinada que establezca normas para todas las fases del proyecto. Las buenas metodologías de desarrollo se refieren a las metodologías de desarrollo estructurado, donde se proporciona:

•Métodos probados para determinar y documentar las especificaciones del sistema y su diseño.

•Normas de programación cuyo resultado sea un código comprensible, susceptible de mantenimiento y que no sea demasiado complejo.

•Lineamientos para el desarrollo de parámetros de medición de calidad que sean aceptados por todas las partes interesadas, antes de su desarrollo.

•Normas y métodos para probar el sistema.

•Herramientas de software para ser usadas en todas las fases para estandarizar el trabajo en el proyecto y mejorar la calidad en el resultado.

•Métodos de control del proyecto, en donde se incluyan numerosas marcas y se requiera la autorización del usuario.

Una metodología de desarrollo es en realidad sólo una colección de métodos, una o más para cada actividad dentro de cada fase de un proyecto de desarrollo. Los departamentos de sistemas de información, junto con la administración de otros departamentos, seleccionan la metodología que creen que se adapta mejor a las necesidades de su empresa. Las corporaciones más grandes que emplean diversas tecnologías pueden seleccionar múltiples metodologías para usarlas con las diferentes tecnologías. Sin embargo, la clave para el desarrollo de la calidad es seleccionar una metodología adecuada y luego hacerla cumplir.

Asignación de recursos durante el desarrollo de los sistemas.

Los puntos de vista sobre la asignación de recursos durante el desarrollo de los sistemas han cambiado significativamente con el curso de los años. La asignación de recursos determina la manera como los costos, el tiempo y el personal son asignados a las distintas fases de un proyecto.

Métrica del Software.

La métrica del software puede jugar un papel en el incremento de la calidad del proyecto. La métrica del software consiste en evaluaciones objetivas de los sistemas en la forma de mediciones cuantificadas. El uso continuo de las métricas permite que el departamento de SI y el usuario midan conjuntamente el desempeño del sistema e identifiquen problemas tan pronto como ocurran. La métrica del software incluye métrica de entrada, de salida, de capacidad, de desempeño y de valor.

El análisis de punto de función mide el número de entradas, salidas consultas, archivos e interfaces externas usadas para otro software empleado en una aplicación. Se emplea para evaluar la productividad del desarrollador y la eficiencia del software.

Pruebas.

La realización de pruebas se inicia en la etapa de diseño. Como aun no existe ninguna codificación, la prueba que normalmente se utiliza es un tránsito, que es la revisión de un documento de especificaciones o de diseño por un grupo de personas cuidadosamente seleccionado según las habilidades necesarias para los objetivos particulares que serán probados. Una vez que se inicia la codificación, los tránsitos de esta también pueden ser usados para revisar el código del programa. Sin embargo, El código debe probarse realizando corridas de computadora. Cuando se descubren los errores, la fuente se encuentra y elimina mediante un proceso llamado depuración.

La realización de pruebas será exitosa solamente si se planea con cuidado. Temprano en el proyecto, antes de que principie ninguna prueba, es necesario preparar un plan de pruebas que debe incluir casos particulares de manera que los desarrolladores puedan estar seguros de que han probado una gama apropiada de entradas válidas e inválidas. Los datos de entrada inválidos deben también ser probados para saber que el sistema maneja adecuadamente los errores. Las pruebas también deben ser confeccionadas de acuerdo con la tecnología a ser probada.

Herramientas de calidad.

Finalmente la calidad del sistema puede ser significativamente mejorada mediante el uso de herramientas de calidad. Hay muchos tipos de herramientas para ayudar en proceso de depuración. El conjunto más reciente de herramientas automatiza mucha de la preparación para pruebas comprensivas. La tecnología de las herramientas es relativamente nueva y en muchos casos su valor debe ser aún demostrado. Sin embargo, Las herramientas están teniendo un impacto significativo en la calidad del sistema y en los costos de desarrollo.

Herramientas y metodologías tradicionales.

Anteriormente la programación era no estructurada y se usaban códigos de programa confusos con lógica rebuscada que metafóricamente se parece a una olla de espagueti.

Las metodologías y métodos que incluían normalmente son descritos mediante los términos estructurado y descendentes. Estructurado se refiere al hecho de que las técnicas son instrucciones cuidadosamente descritas, con frecuencia paso a paso, donde cada paso se desprende del anterior. Descendente se refiere a un enfoque que avanza desde el nivel de la más alta abstracción hasta el más bajo de detalle; desde lo general a lo específico.

Las metodologías tradicionales de estructuración están orientadas hacia el proceso en vez de orientadas hacia los datos. Estas metodologías son en gran medida lineales: cada fase debe quedar terminada antes que la siguiente pueda empezar.

Las metodologías incluyen el análisis estructurado, diseño estructurado, programación estructurada, tablas de decisión, árboles de decisiones, pseudocódigos y diagramas de flujos. Mediante el uso de estas metodologías se promueve la calidad al suscitar la comunicación, reducir los errores ocasionados por la lógica defectuosa en los programas o especificaciones poco claras y creando software que sea más fácil de entender y mantener.

Análisis estructurado.

El análisis estructurado es un método que se utiliza ampliamente para definirlas entradas de sistemas, procesos y salidas, así como para dividir los sistemas en subsistemas. Ofrece un modelo gráfico lógico de flujo de información, que divide a un sistema en módulos que muestran niveles manejables de detalles. El enfoque estructurado permite:

•Tener vistas de un sistema de arriba hacia abajo.

•Especificar las interfases que existen entre modelos.

•Especificar rigurosamente los procesos o las transformaciones que ocurren dentro de cada modelo.

El análisis estructurado puede aplicarse a los análisis de sistemas, especificación de requerimientos y diseño.

Diagramas de Flujo de Datos.

En el análisis estructurado la herramienta primaria es el diagrama de flujo de datos (DFD), que es una representación gráfica de los procesos que componen el sistema y de las interfases entre ellos. Los DFD muestran como los datos fluyen desde, hacia y dentro de un sistema de información y los procesos en donde los datos se transforman. Los DFD también muestran donde se almacenan los datos.

Los diagramas de flujo se construyen utilizando cuatro símbolos básicos:

•El símbolo de flujo de datos, una flecha que muestra el flujo de los datos

•El símbolo del proceso, cuadros redondeados o burbujas que describen procesos que transforman los datos.

•El símbolo de almacenamiento de datos, un rectángulo abierto que indica donde se almacenan los datos.

•El símbolo d entidad externa, ya sea un rectángulo o un cuadrado que indica las fuentes o los destinos de los datos.


1. Flujo de datos 3. Almacenamiento de datos



2. Proceso 4. Entidad externa

Los flujos de datos muestran el movimiento de los datos entre los procesos, entidades externas y almacenamiento de datos.

Los procesos implican la transformación de los flujos de datos de entrada a flujo de datos de salida.

Los almacenamientos de datos pueden ser inventarios manuales o automatizados de datos.

Las entidades externas son originadores o receptores de información. Las entidades externas algunas veces reciben el nombre de interfases externas porque se encuentran fuera de las fronteras o alcances del sistema descrito en el diagrama de flujos de datos.

Los diagramas pueden ser usados para describir procesos de alto nivel así como detalles de bajo nivel. A través de los diagramas de flujo de datos a niveles un proceso complejo se puede fraccionar a diversos niveles de detalles. Todo un sistema puede ser dividido en subsistemas con un DFD de alto nivel. Cada subsistema, a su vez, puede ser dividido en subsistemas adicionales con DFD de menor nivel.

El diagrama de contexto describe siempre a un sistema entero como un proceso sencillo con sus principales entradas y salidas. Los diagramas subsecuentes pueden entonces fragmentar el sistema hacia abajo en mayor nivel de detalle.

Otras herramientas del análisis estructurado.

En el análisis estructurado, el diccionario de datos contiene información acerca de los elementos individuales de datos y de agrupamientos de datos dentro de un sistema. El diccionario de datos define los contenidos de los flujos de datos y el almacenamiento de datos de manera que los desarrolladores de sistemas comprendan exactamente que elementos de datos contienen.

El diccionario también proporciona información sobre el significado y formato de cada elemento de datos y los flujos y los almacenamientos de datos en donde se utiliza.

Las especificaciones de proceso describen las transformaciones que ocurren dentro de las burbujas de más bajo nivel en los diagramas de flujo de datos. Expresan la lógica para cada proceso usando uno de los tres métodos para documentar las reglas de decisión que se describen en:

•Seudocódigo o inglés estructurado.

•Tablas de decisión.

•Árboles de decisión.

El resultado del análisis estructurado es un documento de especificaciones estructuradas que incluye los diagramas de flujo de datos para las funciones del sistema, las descripciones del diccionario de los flujos de datos y los almacenamientos de datos, especificaciones del proceso y documentos de entrada o salida más los requerimientos de seguridad, control, conversión y desempeño.

Documentación de las reglas de decisión. Tablas de Decisiones.

Las tablas de decisiones se consideran como muy útiles para documentar situaciones en las que el proceso de decisiones es altamente estructurado y claramente entendido. Las decisiones se representan de manera gráfica en una tabla en la que se expresan una serie de condiciones. Cuando ciertas condiciones se cumplen (si, no) las decisiones se toman de acuerdo con reglas especificadas. La tabla debe especificar todas las posibles condiciones que afectan la decisión.

Árboles de Decisiones.

Los árboles de decisiones son diagramas secuenciales en forma de árbol que presentan las condiciones que afectan a una decisión y las acciones que pueden ser tomadas. Las ramas representan las trayectorias que pueden ser tomadas en el proceso de toma de decisiones.

Seudocódigo.

El seudocódigo es un método para expresar la lógica de programas que usa inglés común y corriente en vez de símbolos gráficos, árboles, tablas o lenguajes de programación para describir un procedimiento.

El seudocódigo usa los mismos patrones lógicos como estructuras básicas de control de la programación estructurada. Estos son 3:

•La estructura de la secuencia que son los pasos o acciones individuales de la secuencia en la lógica de un programa que no dependen de ninguna condición.

•La estructura de la selección es el patrón lógico de programación en donde una condición ya enunciada determina cuales de las dos o más acciones pueden ser tomadas, dependiendo de cuál satisface la condición establecida.

•La estructura de iteración es el patrón lógico del programa en donde ciertas acciones se repiten si cierta condición ocurre o hasta que cierta condición se satisfaga.

Diseño Estructurado.

El diseño estructurado es una disciplina de diseño de software que abarca un conjunto de reglas y técnicas de diseño para elaborar en forma descendente a un sistema de forma jerárquica.

A medida que se formula el diseño, se documenta en un diagrama estructurado.

El diagrama estructurado es una gráfica descendente, que muestra cada nivel de diseño, su relación con otros niveles y su lugar en toda la estructura de diseño; puede documentar un programa, un sistema o parte de un programa.

Programación estructurada.

La programación estructurada es un método para organizar y codificar programas que simplifica las rutas de control de manera que los programas puedan ser comprendidos fácilmente y en consecuencia modificados. Emplea las estructuras y los módulos básicos de control que sólo tienen un punto de acceso y uno de salida.

Cada una de las cajas del diagrama estructurado representa un componente modular o módulo. Los programas pueden ser particionados en módulos, cada uno de los cuales constituye una unidad lógica que lleva acabo una o un número pequeño de funciones. Los módulos deben estar interconectados de manera que tengan una entrada y una salida de sus módulos padres. Deben compartir datos con los menos módulos posibles para que no hayan conexiones oscuras.

Diagramas de Flujo.

Los diagramas de flujo de los sistemas detallan el flujo de datos a lo largo de todo el sistema de información. Los diagramas de flujo de programas describen los procesos que ocurren dentro de un programa individual en el sistema y la secuencia en la que deben ejecutarse.

Diagramas de flujo de Sistemas (FLUJOGRAMAS):

El flujograma de sistema es un amanera gráfica de describir todos los procedimientos que toman datos de entrada y los transforman a su forma final de salida.

Limitaciones de los métodos tradicionales.

La mayoría de los críticos considera que las metodologías estructuradas son lentas y no tiene respuesta en el mundo de cambios tan rápidos de los noventas. El proceso es demasiado lineal y esto hace que las metodologías estructuradas sean más bien inflexibles. Los sistemas que se enfocan a los procesos son a menudo largos e inflexibles, en cambio, los sistemas que se enfocan hacia los datos pueden ser más cortos y mucho más flexibles, lo que los hace más fáciles de modificar y de mayor respuesta a las necesidades cambiantes de los negocios.

Para atacar muchos de estos problemas se han desarrollado nuevas técnicas como el diseño de aplicaciones conjuntas que es un método de diseño que reúne a los usuarios y a los profesionales de SI en una oficina para un diseño interactivo del sistema.

Nuevos enfoques hacia la calidad.

Además de las nuevas metodologías y herramientas tradicionales, los constructores de sistemas están inclinándose hacia el desarrollo orientado a objeto, a la ingeniería de software asistida por computadora (CASE) y a la reingeniería de software para ayudar a enfrentar a los problemas de calidad de los sistemas de información.

Desarrollo de software orientado a objetos.

El desarrollo de software orientado a objetos es un enfoque que niega la importancia de los procesos y cambia el enfoque del modelaje de los procesos de negocios y de los datos, hacia la combinación de datos y procedimientos para crear objetos.

Beneficios de un enfoque orientado a objetos.

El desarrollo de software orientado a objetos aborda directamente la cuestión de la reutilizabilidad y se espera que reduzca el tiempo y costo de escribir software.

Obstáculos en el uso de técnicas orientadas a objetos.

No existe aún una metodología universal orientada a objetos y todavía no está probado lo suficiente para que muchas empresas adopten el desarrollo de software orientado a objetos, porque muchas de ellas se muestran reticentes en intentarla porque requiere de una gran cantidad de capacitación del personal y una importante reorientación metodológica.

Es necesario desarrollar nuevas tecnologías para los métodos orientados a objetos. Los diccionarios de datos para almacenamiento de definiciones de datos estructurados y de códigos de programa no son adecuados para la programación orientada a objetos. Nuevos diccionarios de datos orientados a objetos deben ser desarrollados. Las herramientas CASE se han desarrollado para dar soporte a las metodologías estructuradas y necesitan ser rediseñadas para ser utilizadas con desarrollos orientados a objetos. Aún deben desarrollarse nuevas métricas, pues muchas de

las existentes para evaluar la calidad de los sistemas no pueden ser aplicadas a la codificación orientada a objetos.

Ingeniería de software apoyada por computadora (CASE).

La ingeniería de software apoyada por computadora (CASE) es la automatización de metodologías paso a paso para el desarrollo de software y de sistemas para reducir la cantidad de trabajo repetitivo que el desarrollador debe hacer. Su adopción puede librar a los desarrolladores para hacer taras más creativas de solución de problemas. Las herramientas CASE también facilitan la creación de documentación más clara y de la coordinación de los esfuerzos de desarrollo de los equipos. Los miembros de los equipos pueden compartir su trabajo con más facilidad al accesarse sus respectivos archivos para revisar o modificar lo que se ha hecho. Los sistemas desarrollados con CASE y las metodologías más nuevas han probado ser más confiables y requieren ser reparados con menor frecuencia. En general, las herramientas CASE tratan de incrementar la productividad y la calidad al:

•Respetar una metodología de desarrollo y una disciplina de diseño estándar.

•Mejorar las comunicaciones entre los usuarios y especialistas técnicos.

•Organizar y correlacionar las componentes de diseño y proporcionar rápido acceso a ellas mediante una alacena de diseño.

•Automatizar porciones tediosas y proclives a errores de análisis y diseño.

•Automatizar la agenda de pruebas y controles.

Ejemplos de herramientas CASE.

Las herramientas CASE se clasifican en términos de si dan apoyo a actividades en el frente o en la parte posterior del proceso del desarrollo de sistema. Las herramientas CASE para la parte frontal se enfocan en la captación del análisis y el diseño de información en las primeras etapas del desarrollo de sistemas. Las herramientas CASE para la parte posterior se enfocan en las actividades de codificación, pruebas y mantenimiento.

El Reto de Usar el CASE.

Para ser utilizadas eficazmente, las herramientas CASE requieren de mayor disciplina organizacional que en el enfoque manual. Todo miembro del proyecto de desarrollo debe adherirse a un conjunto común de convenciones de nombres, normas y metodologías de desarrollo. Las mejores herramientas CASE refuerzan métodos y normas comunes, lo que puede desaconsejar su uso en situaciones en donde se adolece de falta de disciplina organizacional.

Reingeniería de software.

La reingeniería de software es una metodología que ataca el problema del envejecimiento del software. El propósito de la reingeniería es salvar mucho del software, revaluarlo de manera que los usuarios puedan evitar un proyecto largo y caro de reemplazo. Esencialmente, los desarrolladores usan la reingeniería para extraer inteligencia de los sistemas existentes y por tanto crear nuevos sistemas sin empezar de cero. La reingeniería implica tres pasos: ingeniería reversiva, revisión del diseño y especificaciones de programas, e ingeniería prospectiva.

La ingeniería reversiva, o retrospectiva, implica la extracción de las especificaciones subyacentes del negocio de los sistemas existentes. Con documentación estructurada de la cual partir, el equipo del proyecto puede revisar el diseño y especificaciones para cumplir con los requerimientos actuales del sistema. En el paso final, ingeniería prospectiva, las especificaciones revisadas son usadas para generar un código nuevo y estructurado para un sistema estructurado y mantenible.

La reingeniería permite que los desarrolladores eliminen las redundancias reduciendo así el tamaño y complejidad de los programas, lo que da como resultado menores oportunidades para monsergas actuales y futuras.