sábado, 1 de marzo de 2008

Los proyectos

V. De acuerdo con la Leyde Servicio Comunitario del Estudiante de Educación Superior,
con respectoa los proyectos se tiene:

TITULO IV
DE LOS PROYECTOS

De los proyectos

Artículo 21.Los proyectos deberán ser elaborados respondiendo a las necesidades de las comunidades, ofreciendo soluciones de manera metodológica, tomando en consideración los planes de desarrollo municipal, estadal y nacional.

Iniciativa de Proyectos

Artículo 22. La presentación de los proyectos ante las instituciones de educación superior podrá ser iniciativa de:
El Ministerio de Educación Superior
Las instituciones de educación superior
Los estudiantes de educación superior
Las asociaciones gremiales
Las instituciones públicas
Las instituciones privadas
Las comunidades organizadas
De los requisitos para la presentación y aprobación de los proyectos

Artículo 23. Los proyectos deberán ser presentados por escrito, y el planteamiento del problema, deberá incluir la necesidad detectada en la comunidad, la justificación, los objetivos generales y el enfoque metodológico, sin menoscabo de los requisitos adicionales que pueda solicitar la institución de educación superior en su reglamento.

Todo proyecto de servicio comunitario requiere ser aprobado por la institución de educación superior correspondiente.

DISPOSICIONES TRANSITORIAS

Primera: A partir de la entrada en vigencia de esta Ley, las instituciones de educación superior evaluarán los proyectos de acción social o comunitaria que estén desarrollando los estudiantes de educación superior, los cuales por sus características puedan convalidarse al servicio comunitario previsto en esta Ley.

LOS PROYECTOS DE ACCIÓN SOCIAL O COMUNITARIA DESARROLLADOS POR LOS ESTUDIANTES PARA SU CONVALIDACIÓN CON EL SERVICIO COMUNITARIO, SE REGIRÁN POR LA SIGUIENTE NORMATIVA DE LA UNIVERSIDAD JOSÉ ANTONIO PÁEZ:


ELABORACIÓN Y PRESENTACIÓN DE LOS PROYECTOS

PARTE I

FUNDAMENTOS GENERALES

Las normas desarrolladas en este material establecen las condiciones, procedimientos y criterios exigidos por la Universidad José Antonio Páez, para la elaboración y presentación de los proyectos ante la Coordinación de Servicio Comunitario.

El Proyecto se concibe como la aplicación, extensión o la profundización de los conocimientos adquiridos en la carrera correspondiente; consisten en el estudio sistematizado de un problema teórico o práctico, o un esfuerzo de creación que demuestre el dominio en el área de la carrera para ser aplicado a una problemática comunitaria.

En los proyectos realizados como estudios de investigación, el estudiante deberá demostrar su capacidad para aplicar métodos y técnicas de investigación adecuados al caso según las particularidades y objetivos de cada Facultad, procesar información, organizar y presentar el material, y llegar a resultados que signifiquen una contribución a la solución de un problema comunitario.

Pueden ser: de la autoría personal e individual del estudiante o la conformación de un equipo de bachilleres; en la medida de lo posible que sean originales e inéditos (producido directamente por su autor o autores, sin ser copia, imitación o traducción de otra. Así como escrito y no publicado). Si parten de trabajos ya realizados, deberán incluir nuevos aportes o criterios novedosos.

Los estudiantes deben preparar su proyecto con la asesoría de un tutor designado por la Coordinación de Servicio Comunitario. Sin embargo, tanto la selección del tema, como la conceptualización, diseño y ejecución del trabajo en todas sus partes, son de entera y personal responsabilidad de los estudiantes.


DE LA NATURALEZA DE LOSPROYECTOS.

Aspectos generales: Los proyectos se realizarán siguiendo cualquiera de los paradigmas o enfoques de investigación propios de las disciplinas en las cuales se ubique la temática escogida, siempre y cuando el estudiante, en su proyecto, logre justificar, de manera satisfactoria, la metodología seleccionada.

Los proyectos pueden ser concebidos dentro de las siguientes modalidades generales de estudios de investigación, entre otras que se justifiquen por los avances del conocimiento y la práctica de la investigación, o por las especificidades de los diseños de las currícula: Marco Lógico, Investigación de campo; Investigación documental; Proyectos factibles; y, Proyectos especiales.

Marco Lógico: El enfoque de Marco Lógico es una herramienta para la planificación y gestión de proyectos orientados por objetivos. Es una manera de estructurar los principales elementos de un proyecto, subrayando los lazos lógicos entre los insumos previstos, las actividades planeadas y los resultados esperados. El proyecto es una intervención innovadora en el campo del desarrollo que tiene un objetivo definido, el cual deber ser logrado en un cierto período, en un ámbito geográfico y a favor de una determinada comunidad o población beneficiada. Es un diseño en varios pasos, cuyo punto culminante es una matriz que muestra la estructura básica de la intervención, y que es lo que hoy se conoce como matriz de marco lógico. El marco lógico facilita las siguientes acciones durante la gestión del ciclo de los proyectos: Identificación y prioridad, sobre la base de un análisis de los problemas de la comunidad y sus posibles alternativas de solución. Formulación y evaluación, mediante la especificación y estimación cuantitativa de los beneficios y costos involucrados en un proyecto. Planificación operativa, especificando de modo preciso las actividades y los recursos para la ejecución de un proyecto. Monitoreo y evaluación, sobre la base de un conjunto de indicadores de desempeño. Evaluación ex_post y análisisdel impacto social de un proyecto, a fin de determinar su contribución al desarrollo.

La investigación de campo: Se entenderá por investigación de campo, el análisis sistemático de problemas en la realidad, con el propósito bien sea de describirlos, interpretarlos, entender su naturaleza y factores constituyentes, explicar sus causas y efectos, o predecir su ocurrencia, haciendo uso de métodos o enfoques de investigación conocidos o en desarrollo. Los datos serán recogidos en forma directa de la realidad; en este sentido se trata de investigaciones a partir de datos originales o primarios. Sin embargo, se aceptarán también estudios sobre datos censales o muestrales no recogidos por el estudiante, siempre y cuando se utilicen los registros originales con los datos no agregados; o cuando se trate de estudios que impliquen la construcción o uso de series históricas y, en general, la recolección y organización de datos publicados para su análisis mediante procedimientos estadísticos, modelos matemáticos, econométricos o de otro tipo.

La investigación documental: Se entenderá por investigación documental, el estudio de problemas con el propósito de ampliar y profundizar el conocimiento de su naturaleza, con apoyo, principalmente, en trabajos previos, información y datos divulgadas por medios impresos, audiovisuales o electrónicos. La originalidad del estudio se reflejará en el enfoque, criterios, conceptualizaciones, reflexiones, conclusiones, recomendaciones y, en general, en el pensamiento del estudiante.

Los proyectos factibles: Consistirá en la investigación, elaboración y desarrollo de una propuesta de un modelo operativo viable para solucionar problemas, requerimientos o necesidades de organización o grupos sociales; puede referirse a la formulación de políticas, programas, tecnologías, métodos o procesos. El proyecto factible debe tener apoyo en una investigación de tipo documental, de campo o un diseño que incluya ambas modalidades.

Comprende las siguientes etapas generales: primera, diagnóstico, planeamiento y fundamentación teórica de la propuesta; procedimiento metodológico, actividades y recursos necesarios para su ejecución, análisis y conclusiones sobre la viabilidad y realización del proyecto; segunda, en caso de su desarrollo, la ejecución de la propuesta y la evaluación tanto del proceso como de sus resultados.

Pueden llegar hasta la etapa de las conclusiones sobre su viabilidad, o pueden consistir en la ejecución y evaluación de proyectos factibles presentados y aprobados por otros estudiantes, para dar continuidad a líneas de investigación aplicadas, promovidas por la Dirección de Investigación de la Universidad José Antonio Páez.

Los proyectos especiales: Consistirá en las creaciones tangibles, susceptibles de ser utilizadas como soluciones a problemas demostrados, o que respondan a necesidades e intereses de tipo cultural. Se incluyen en esta categoría los trabajos de elaboración de libros de textos y de materiales de apoyo educativo, el desarrollo de software y hardware, prototipos y de productos tecnológicos en general.

PARTE II

ORGANIZACIÓN DE LOS PROYECTOS


Los proyectos deben contener la descripción del trabajo que el estudiante se propone realizar. Se organizan en tres partes principales:

Las páginas preliminares, que comprenden: la portada, la página del título,
el Acta de Revisión del Proyecto por parte de la Coordinación de Servicio Comunitario.
El texto del proyecto, organizado en secciones (capítulos).
Los materiales de referencia, que comprenden: la lista de referencias (impresas, audiovisuales y electrónicas) y, cuando el caso lo amerite, los anexos.
La extensión del proyecto no debe exceder de veinte (20) páginas (carácter obligatorio) incluyendo las preliminares, mecanografiadas e impresas.

La página del título debe contener la mención de la Universidad José Antonio Páez, la Facultad y la Escuela respectiva y la carrera; el título tentativo del trabajo, la indicación de que se trata de un proyecto comunitario, el nombre del autor, el lugar y la fecha de presentación.

La página de índice de contenido consiste en una relación de los títulos de las secciones y subsecciones del proyecto.

El resumen informativo es una exposición corta y clara del tema seleccionado, de la metodología que se propone y de los aportes e importancia del proyecto.

No debe exceder de trescientas (300) palabras escritas a un espacio y en un solo párrafo.

El texto del proyecto se compone de una serie de secciones y subsecciones organizadas para presentar la información que se indica en los literales a continuación, con las denominaciones de títulos, el ordenamiento e integración que resulte más adecuada en atención a la modalidad y las características particulares del proyecto. Se desarrollará en cuatro (4) capítulos, a saber:



CAPÍTULO I

EL PROBLEMA

1.1. PLANTEAMIENTO DEL PROBLEMA

Un problema correctamente planeado está parcialmente resuelto, a mayor exactitud corresponden más posibilidades de obtener una solución satisfactoria.

Es necesario realizar un diagnóstico de la situación actual (de una empresa, departamento, comunidad, entre otros). Resulta necesario entender que el problema o situación a ser investigada no está aislada; por el contrario siempre guarda relación con circunstancias colindantes que, en la mayoría de los casos, lo determinan.

Es indispensable: determinar las posibles causas que producen el problema o situación; expresar las posibles consecuencias que puedan derivar del problema, consecuencias éstas que deben ser minimizadas o eliminadas como resultado de la investigación.

Con estos elementos a la mano proceder a su clara y fluida redacción, que permita al lector detectar, sin mayores complicaciones, el problema objeto de investigación.

El planteamiento del problema debe seguir tres pasos fundamentales: descripción, explicación y formulación.

Recomendaciones

Para aquellos estudiantes que presenten problemas de redacción y de gramática, se les recomienda someter su escrito a la consideración de personas con dominio sobre la materia.
El planteamiento del problema no debe ser escrito en forma de telegrama o de un amplio ensayo. Se recomienda la redacción de, por lo menos, cinco (5) páginas, entendiéndose que no resulta una regla inflexible o rígida. La intención es dar la mayor y más clara información a los evaluadores de la investigación.


1.1.1. FORMULACIÓN DEL PROBLEMA

Consiste en elaborar una pregunta que no responda a sí o a no. Debe estar en concordancia con el título.


1.2. OBJETIVOS DE LA INVESTIGACIÓN

En esta sección se establece “qué pretende la investigación”, representan lo que se quiere hacer, lograr o, simplemente, analizar. Hay investigaciones que buscan, ante todo, resolver un problema en especial y otras que tienen como objetivo principal probar una teoría o aportar evidencia empírica a ésta.

Los objetivos, por tanto, representan las guías del estudio y su alcance es determinante para el investigador. Deben expresarse con claridad y susceptibles de ser alcanzados. Por otra parte, vienen dados en función del título y el planteamiento del problema y son declaraciones relativas a ¿qué?, ¿cómo?, ¿para qué? se tomo esa situación o problema en particular para desarrollar la investigación.

Deben ser redactados en tiempo infinitivo (por ejemplo: determinar, analizar, verificar, entre otros) y la intención del investigador es el logro de los mismos. Es conveniente plantearse solamente aquellos objetivos de los cuales se tiene certeza de su cumplimiento.

Se recomienda no utilizar los siguientes verbos: conocer y comprender, ya que pueden considerarse ambiguos y su interpretación puede confundir al lector.

Los objetivos se estructuran de la siguiente manera:


1.2.1. Objetivo General

Aquellos que expresan un logro sumamente amplio y son formulados como propósito general de estudio. Su redacción guarda mucha similitud con el título de la investigación.


1.2.2. Objetivos Específicos

Se derivan del general y, como su palabra lo dice, inciden directamente en los logros a obtener. Deben ser formulados en términos operativos, incluyen las variables o indicadores que se desean medir. Las causas del problema orientan su redacción.

Recomendaciones

Los objetivos son metas que se alcanzarán en el transcurso de la investigación.


1.3. JUSTIFICACIÓN DE LA INVESTIGACIÓN

Es necesario justificar las razones que motivan el estudio. La mayoría de las investigaciones se efectúan con un propósito definido, no se realizan por capricho de una persona o institución. Ese propósito debe ser lo suficientemente fuerte para que se justifique la realización de la misma. Por otra parte, es necesario explicar por qué es conveniente llevar a cabo la investigación y cuáles son los beneficios que se derivan de ella a la comunidad a ser desarrollados

Recomendaciones

Para efectos de redacción de este tópico, conviene tomar en consideración los siguientes aspectos: conveniencia, relevancia social y la solución de un problema comunitario.



CAPÍTULO II

MARCO TEÓRICO
El marco teórico constituye un aspecto de mucha importancia dentro de la investigación. En términos generales, representa la “explicación” teórica para comprender la naturaleza del hecho investigado, o lo que es lo mismo, sustentar teóricamente el estudio.

No representa tarea fácil y, en la mayoría de los casos, de no lograrse la asesoría adecuada, el investigador se conforma con una simple recopilación bibliográfica sin relación alguna con el problema motivo de estudio, la simple revisión bibliográfica no constituye el marco teórico.

El investigador debe realizar y exponer aquellos enfoques teóricos y conclusiones de investigaciones que se consideran válidas para que encuadre con el problema en cuestión.

El marco teórico ayuda al investigador a prevenir errores que se han cometido en otros estudios. Es necesario recordar que la teoría está en permanente cambio: en la medida que se contrasta la realidad, nuevos conocimientos hacen su aparición, los cuales ayudan a rechazar, modificar o aceptar y reafirmar la teoría original. Permite asimismo, determinar cuan repetitivo pudo haber sido un estudio en particular, lo cual implicaría dirigir los esfuerzos a problemas distintos del tópico seleccionado.

Al acudir a los antecedentes, el investigador puede darse cuenta de la manera como ha sido tratado un problema, con qué tipos de sujetos, la metodología utilizada, los lugares donde se han realizado, entre otros.

El marco teórico sirve de ayuda para la determinación de líneas de investigación. En su elaboración pueden encontrarse nuevas opciones de enfoque para abordar el problema. Cabe mencionar que se comete un craso error cuando el investigador se da a la tarea de transcribir textual o casi textualmente la bibliografía consultada sin darle valor a las personas que realizaron dichas investigaciones y cuyo análisis fueron producto de su esfuerzo y sacrificio intelectual.


2.1. ANTECEDENTES

Esta sección se refiere a “¿qué se ha escrito o investigado sobre el particular?”, o lo que es lo mismo, se trata de la revisión de investigaciones previas relacionadas de manera directa o indirecta con la investigación planteada.

Se trata de determinar aquellas investigaciones que se vinculan directamente con el motivo de estudio, expresando un pequeño germen de sus logros. En el caso de trabajos caracterizados por ser novedosos, será necesario hacer alusión a aquellos que de alguna manera puedan tener lazos de unión con el que se espera desarrollar o entrevistar a expertos en la materia.

Recomendaciones

No confundir lo anteriormente expresado con un error que se comete con suma frecuencia: realizar una descripción histórica del problema a estudiar. Esto último de ser elaborado, se incluirá en las bases teóricas. Cabe mencionar, que su redacción debe ser lo suficientemente descriptiva como para permitir al lector determinar la vinculación de estas experiencias con la investigación que se realiza.

El investigador se da a la tarea de estudiar los trabajos más relevantes que se han escrito a nivel local, regional, nacional e internacional. Basta con mencionar algunas, de ser posible, con una cronología inferior a cinco años y desenvolviéndose de fecha más reciente a menos reciente. Una manera sencilla de redactarlo es: autor, título, año y una pequeña conclusión. Resultará acientífico mencionar en la redacción la no existencia de trabajos previos, relacionados directa o indirectamente con el objeto de estudio.


2.2. BASES TEÓRICAS

En esta sección, el investigador se da a la tarea de analizar y explicar el problema, su naturaleza, interrelaciones, así como el planteamiento por parte del investigador de sus propias ideas y exposiciones relacionadas con el tema investigado.

Resulta conveniente acudir a bancos de datos, ya sea de consulta manual o por medios electrónicos, indagar en revistas científicas y arbitradas que suelan tratar el tema que interesa, revisar trabajos de grado y conferencias sobre el tópico, consultar a expertos en la materia y cualquier otra fuente que pudiera considerarse provechosa para el desarrollo de la investigación.

Las bases teóricas no constituyen la simple redacción de las ideas expuestas por diversos autores; es necesario concatenar, eslabonar, relacionar dichas teorías con el problema a investigar. El uso de citas bibliográficas resulta fundamental en esta sección y, en la medida que su uso sea más recurrente, mayor relevancia tendrá el estudio.

Como una estrategia eficaz para la elaboración de las bases teóricas, el investigador puede imaginar los posibles capítulos o secciones que requiere analizar para su configuración. Esto le permitirá sugerir el orden de la revisión bibliográfica, a objeto de realizar las lecturas selectivas.

Las bases teóricas no deben ser extremadamente largas o extensas, toda vez que se puede incurrir en el error de incluir aspectos y argumentos irrelevantes en el texto. Sin embargo, es justo reconocer que aquellas sumamente restringidas pueden no cumplir con el propósito deseado.


2.3.DEFINICIÓN DE TÉRMINOS BÁSICOS

Debe contener los términos relevantes o especializados que den fundamentación teórica al trabajo para su comprensión. Así como también aquellas definiciones personales de términos desarrollados por el autor.

Recomendación

Los términos obvios, de conocimiento si se quiere universal, deben ser excluidos de la sección y, de igual manera, aquellos conceptos no utilizados a lo largo del estudio. Su presentación será en orden alfabético. Evitar convertir la sección en un diccionario.



CAPÍTULO III

MARCO METODOLÓGICO
Se describirá el diseño de estudio en detalle, se determinará el ¿cómo? y ¿con qué? se realizará la actividad investigativa.

La metodología es una creación personal, cuyas técnicas e instrumentos a utilizar para la recopilación de datos, pueden resultar convenientes a los objetivos que se persiguen; la conformación de los mismos tienen que estar en perfecta concordancia con los objetivos de la investigación.

Se divide en secciones, a objeto de mantener un orden lógico en la descripción de los mismos:

Conviene iniciar su redacción indicando el propósito de la investigación el cual puede ser de carácter básico o aplicado; de seguido, el nivel de conocimiento o de investigación, los cuales pueden ser: explorativos, descriptivos y explicativos o de comprobación de hipótesis. El ¿por qué? de su selección, debe ser justificado por el autor de la investigación. Posteriormente se incluye la estrategia a seguir en el proceso, ya sea que se trate de un trabajo documental o de campo.
A continuación se tratará lo concerniente a la población y muestra seleccionada (cuando lo amerite el tipo de investigación). Se requiere la descripción y justificación estadística de la misma.
Las técnicas e instrumentos de recolección de datos es el paso a seguir en el orden metodológico y resulta relevante en su importancia. Se describirán aquellas técnicas (el cómo se va a obtener la información) y los instrumentos (el con qué) a utilizar. Se recomienda, asimismo, el justificar las razones de su selección y la información que se pretende obtener.
La metodología debe plantearse, preferiblemente de acuerdo a los objetivos específicos que se han definido. Para ello, es necesario describir, por cada objetivo específico, cuáles actividades deben realizarse, y cuáles estrategias, técnicas y procedimientos, y normas, deben emplearse para cumplir con las actividades propuestas. La redacción de este aspecto o sección, no debe relacionarse con la definición teórica de las técnicas e instrumentos (entrevista, observación, cuestionario y otras adecuadas según el tipo de investigación que se esté realizado) sino, permitir al lector comprender sus características fundamentales.
Las técnicas de análisis se redactan seguidamente. Se expresa ¿qué se va a hacer con los datos? (organizarlos, sistematizarlos, tabularlos) para, posteriormente, realizar la presentación de los mismos (cuadros o tablas, gráficos, entre otros).
Se recuerda que, dependerá del área a investigar, el diseño metodológico a utilizar (estudios de carácter social, estudios de concepción técnica, estudios de factibilidad, estudios de mercado, entre otros). Por tal motivo, no existe una rigidez determinante en la estructuración de la metodología (se ha hecho frecuente la descripción por fases de la misma). Lo que si resulta recomendable es el orden lógico a seguir en el proceso. En el caso de un proyecto factible, iniciar la sección con tipo de investigación. Posteriormente describir las Fases metodológicas las cuales tendrán íntima relación con los objetivos específicos las cuales deben describirse exhausti­vamente e incluir donde corresponda los aspectos relacionados con la población y muestra, los instrumentos de recolección de datos y las técnicas de análisis.


CAPÍTULO IV

RECURSOS
Debe mencionarse con cuáles recursos contará la investigación. Se clasifican en:

Humanos: Tienen que ver con todos los sujetos que forman parte del proceso, incluyendo los que forman parte de las unidades de observación, los investigadores, los asistentes y los colaboradores.
Institucionales: Los organismos o instituciones a los cuales se recurre para obtener información.
Materiales: Todos aquellos objetos como el computador, software, material de escritorio, entre otros. Si es necesario el financiamiento de alguna institución se colocará el presupuesto
Tiempo: Elaborar el cronograma de actividades.
REFERENCIAS BIBLIOGRÁFICAS

La lista de referencias incluye las fuentes que han sido citadas o comentadas en el proyecto. Esta lista se presenta ordenada alfabéticamente según el criterio de autoría, siguiendo las reglas que se exponen en este material. Resulta necesario y conveniente discriminar las bibliografías de las legales y electrónicas.


ANEXOS

Se podrá incluir información adicional que sirva para ampliar o apoyar alguno de los puntos tratados en el texto: instrumento de investigación, glosario, datos estadísticos u otros.


Recomendación Final

Para la organización de los encabezamientos de las distintas partes y secciones del proyecto, la elaboración de citas, el registro de las referencias y el mecanografiado, se seguirán las especificaciones contenidas en el presente material.

Los proyectos deben ser consignados ante la Coordinación de Servicio Comunitario, en un (1) ejemplar, encuadernación rústica (portada con ventana y espiral), con la constancia de aceptación del tutor y demás requerimientos estipulados por la Coordinación.


PARTE III

CONSIDERACIONES FINALES

DE LAS CITAS Y NOTAS

Las citas en el texto se utilizan para presentar información y datos tomados de otros trabajos e identificar las fuentes de las referencias.

Todas las fuentes que se citen (impresas, electrónicas o audiovisuales), incluidas las de tipo legal y de materiales no publicados o de circulación restringida (excepto las comunicaciones personales), deben presentarse en la lista de referencias conforme las a reglas que para su registro y ordenamiento, se establecen en el presente capítulo.

El material tomado textualmente de otro trabajo, de algún instrumento, o de instrucciones dadas a los sujetos en el proceso de la investigación, debe ser reproducido palabra por palabra exactamente igual como aparece en la fuente. Si existiera algún error gramatical o de otro tipo, que pueda confundir al lector, luego del error se coloca la expresión “sic”, en letras itálicas (o subrayadas) y entre paréntesis.

Las citas textuales con menos de cuarenta (40) palabras, se incluirán como parte del párrafo, dentro del contexto de la redacción, entre dobles comillas. Las citas de mayor longitud se escribirán en párrafo separado, con sangría de cinco (5) espacios a ambos márgenes, sin comillas y mecanografiadas a un espacio interlineal. Evitar el uso de citas superiores a las quinientas (500) palabras. Se evitará el uso de notas al pie de página o de final de capítulo para la cita de fuentes.

Cuando las citas directas son cortas (menos de 40 palabras): Ejemplo: “En estudio psicométrico realizado por la Universidad de Connecticut, se ha encontrado que los niños tienen menos habilidades que las niñas”. (Ferrer, 1986; 454)
Cuando las citas son largas (más de 40 palabras): Ejemplo:
El efecto placebo que había sido verificado en estudio previo, desapareció cuando las conductas fueron estudiadas de esta forma. Las conductas nunca fueron exhibidas de nuevo, aun cuando se administran drogas verdaderas. Estudios anteriores fueron claramente prematuros en atribuir los resultados al efecto del placebo. (p. 276)

Citas de referencias en el texto

El estilo APA (http://wally.rit.edu/pbs/guides/apa.html) requiere que el(la) autor(a) del trabajo documente su estudio a través del texto, identificando autor(a) y fecha de los recursos investigados. Este método de citar por autor(a)-fecha (apellido y fecha de publicación), permite al lector localizar la fuente de información en orden alfabética, en las listas de referencias al final del trabajo.

Cuando el apellido del autor(a) forma parte de la narrativa, se incluye solamente el año de publicación del artículo entre paréntesis. Ejemplo: Rivera (1999) comparó los tiempos de reacción…
Cuando el apellido y fecha de publicación no forma parte de la narrativa del texto, se incluyen entre paréntesis ambos elementos separados por una coma. Ejemplo; En un estudio reciente sobre tiempos de reacción… (Rivera, 1999)
En pocas ocasiones, tanto la fecha como el apellido forman parte de la oración, en cuyo caso no llevan paréntesis. Ejemplo: En 1999, Rivera comparó los tiempos de reacción…
Cuando un trabajo tiene tres, cuatro, cinco o más autores(as), se citan todos los autores(as) la primera vez que ocurre la referencia en el texto. En las citas subsiguientes del mismo trabajo, se escribe solamente el apellido del(la) primer(a) autor(a) seguido de la frase “et al”, en letras itálicas, y el año de publicación. Ejemplos:

Ramírez, Santos, Aguilera y Santiago (2000) encontraron… (primera vez)
Ramírez et al (2000) concluyeron que… (próxima vez)

En el caso que se citen dos o más obras por diferentes autores(as) en una misma referencia, se escriben los apellidos y respectivos años de publicación separados por un punto y coma dentro de un mismo paréntesis. Ejemplo:

En varias investigaciones (Ayala, 1994; Conde, 1996; López & Muñoz, 1999) concluyeron que…

Cuando el material es electrónico, el formato básico para la cita es: Autor de la página (fecha de publicación o revisión de la página). Título de la página o lugar (medio utilizado). Editor de la página (fecha de acceso).

Ejemplo de documentos que provienen de lugares en el Word Wide Web:
Rivera, N. (1996, marzo 19). Para una historización de la globalización. [En línea]. La UCA de Managua. http://www.uca.ni/ellacuria/globo.htm [1999,julio 2].
Bryantm P. (1999). Biodiversity and Conservation. [Libro en línea]. Consultado el día 4 de octubre de 1999 de la World Wide Web: http://darwin.bio.uco.edu/~sustain/bio65/titlpage.htm.

DEL LENGUAJE Y ESTILO

En la redacción del trabajo de grado, se debe emplear un lenguaje formal, de acuerdo a la especialidad, simple y directo, evitando en lo posible el uso de expresiones poco usuales, retóricas o ambiguas.

El texto se redactará en tercera persona. Se evitará el uso de los pronombres personales: yo, tú, nosotros, mi, entre otros. Cuando el autor considere conveniente destacar su pensamiento, sus aportes o las actividades cumplidas en la ejecución del estudio, puede utilizar la expresión: el autor (la autora).

No deben usarse abreviaturas en la redacción; con excepción de las siglas técnicas normalizadas y nombres comerciales en siglas.

Se pueden utilizar siglas para referirse a organismos, instrumentos o variables que se nombren repetidas veces en el texto, siempre y cuando faciliten la comprensión de las ideas expuestas. Estas siglas deben explicarse cuando se utilizan por primera vez, escribiendo el nombre completo, seguido de las siglas en letras mayúsculas, sin puntuación y dentro de un paréntesis. Por ejemplo: Universidad José Antonio Páez (UJAP).

La construcción de párrafos, la puntuación y el uso de letras mayúsculas y minúsculas deben ajustarse a las normas gramaticales. El estilo, la terminología y la forma de presentación de datos numéricos deben ser coherentes a lo largo de la exposición.


DE LA TRANSCRIPCIÓN Y LA IMPRESIÓN

No se aceptarán tachaduras, enmendaduras ni inserciones.

El papel a utilizar debe ser tipo bond blanco, tamaño carta, base veinte (20), de peso y textura uniformes. Las hojas no deben tener rayas ni perforaciones. En lo posible, los cuadros y gráficos se presentarán en tamaño carta (en caso contrario, se utilizarán las técnicas generalmente aceptadas de encuadernación).

El texto se escribirá con letra de 12 puntos, en el tipo Times New Roman. Leyenda de cuadro y gráficos con letra de 9 puntos.

Se hará uso de “las negritas” o letra cursiva, para el realce de títulos y de información cuando sea apropiado. Los grafemas de origen extranjero (latín, inglés, entre otros) deben escribirse en letra cursiva.

Los márgenes a usar serán: tres (3) cm. el margen superior, cuatro (4) cm. el lado izquierdo, derecho e inferior de la página (3) cm. El margen superior de la primera página de cada nuevo capítulo debe ser de cuatro (4) cm.

Se dejará sangría de un (1) cm. espacios en el margen izquierdo de la primera línea de cada párrafo.

El texto y los títulos de varias líneas se escribirán con interlineado de espacio y medio. No se dejará espacio adicional entre los párrafos del texto. El espacio triple se utilizará después de los títulos de los capítulos, antes y después de los cuadros y gráficos titulados, que se presenten entre párrafos de texto.

Los capítulos, la lista de referencias y los anexos deben comenzar en una página nueva. En la primera página de cada capítulo, arriba y al centro, se presentará la identificación del mismo con la palabra: CAPÍTULO, y el número romano que indica el orden (I, II, …). Debajo, también centrado, se escribirá el título en letras mayúsculas. Dentro de cada capítulo se puede tener desde uno hasta cuatro niveles de encabezamiento para identificar las secciones y subsecciones. Estos encabezamientos deben ir numerados.

Cuando se requiera enumerar varios elementos dentro de un párrafo, se utilizarán letras minúsculas y entre paréntesis, así: (a), (b)… Si se quieren destacar elementos o ideas en párrafos separados, se utilizarán números arábigos seguidos por un punto, sin paréntesis, con sangría de un (1) cm. para la primera línea, y con las líneas sucesivas al nivel del margen izquierdo.

Las páginas preliminares se enumeran con cifras romanas minúsculas, en forma consecutiva, comenzando con la página del título, que se entenderá será i, sin que la cifra se coloque en la página, con excepción de la página del resumen informativo, la cual se enumerará en el centro inferior.

Los números de todas las páginas se colocarán centradas en la parte inferior, excluyendo las primeras de cada capítulo y las que contienen cuadros, tablas y gráficos verticales u horizontales.

Las notas de los cuadros, tablas y gráficos se mecanografiarán en la parte inferior de cada uno de ellos (a un espacio), para explicar los datos presentados, suministrar información adicional o reconocer la fuente.

Los cuadros, tablas y gráficos deben ser incorporados en el lugar apropiado del texto, y no al final de los capítulos o en anexos. Los cuadros y gráficos pequeños pueden aparecer entre párrafos, mientras que los de mayor dimensión deben colocarse en página separada o plegada, inmediatamente después de la página donde se mencionan o explican.

Cada cuadro, tabla o gráfico deberá tener un número de identificación y un título descriptivo de su contenido. Los cuadros y las tablas se numerarán en serie continua desde el principio al fin del texto (no por capítulos). Lo mismo se hará con los gráficos. Las referencias en el texto se harán así: Cuadro 5, Tabla 6, Gráfico 3; también se podrá remitir a ellos utilizando paréntesis: (Ver Cuadro 5), (Ver Tabla 6), (Ver Gráfico 3).

El número y título de los cuadros y de las tablas deben colocarse en su parte superior; en el caso de los gráficos, en la parte inferior.

Administracion innovacion

Innovación

El papel que juega la innovación en la nueva economía es fundamental. La innovación representa la producción de conocimiento aplicado para generar nuevas formas de “valor”, las cuales generan ventajas competitivas y crecimiento económico. La innovación es generada por las personas que pertenecen a una organización: es la combinación de capacidades, conocimiento, experiencia, creatividad y comunicación. La administración del conocimiento (o knowledge management) surge como una ciencia que estudia, entre otras cosas, esta combinación de elementos.

La innovación se puede dar en las organizaciones con diferentes matices y enfoques; por ejemplo, existe la innovación tecnológica, la innovación social, la innovación administrativa y la innovación de proceso. Cada una de ellas se puede presentar de manera aislada o combinada.

Innovación tecnológica: Es el resultado de la investigación y el desarrollo científico. La aplicación de una o varias ramas de la ciencia dan como resultado una nueva forma de producir o hacer las cosas. Por lo general, es la que más recursos económicos necesita y requiere más tiempo para su generación.

Innovación social: Está relacionada con la forma de organizar a las personas, cómo motivarlas, cómo lograr que se comuniquen e interactúen de una mejor forma. Los valores y la cultura organizacional pueden ser elementos fundamentales para la creación de “valor”. Esta innovación la generan los líderes de las organizaciones.

Innovación administrativa: Surge cuando se encuentra una nueva forma de gestionar el negocio o la organización; hacer más eficiente la función de planeación, control, y presupuesto; o bien, descubrir nuevas formas de interactuar con otras organizaciones; también involucra aspectos financieros. Esta innovación es generada por los administradores o consultores de la organización.

Innovación de proceso: Este tipo de innovación trae como consecuencia mejoras en un proceso productivo, resultado de la optimización mediante cambios pequeños en la forma de hacer las cosas. Comparada con la innovación tecnológica, su impacto es menor, así como los tiempos y costos involucrados. Esta innovación es generada por el personal de la organización que conoce el proceso y/o por consultores.

Inteligencia de negocios

La inteligencia de negocios, o business intelligence, se puede definir como el esfuerzo intencional por obtener información interna y del entorno, que es de interés para una organización en general. El objetivo principal es que con esta información los tomadores de decisiones de la organización sean más acertivos. Desde los inicios de la inteligencia de negocios hasta la actualidad el concepto ha ido evolucionando en paralelo a las nuevas tecnologías y descubrimientos científicos.

En sus inicios, la inteligencia de negocios se denominaba inteligencia competitiva (competitive intelligence). En esa época, los ex-agentes de las corporaciones de investigación, FBI, CIA e investigadores privados eran los expertos en la materia. El concepto de inteligencia giraba alrededor del espionaje industrial, la obtención de información confidencial y el rastreo de papeler’a importante de la competencia, todo aquello que nos pudiera decir lo que “no debemos” saber.

Posteriormente, con el “boom” de la informática, la inteligencia de negocios tomó un nuevo rumbo y se enfocó en la información interna del negocio. En esos momentos, las empresas contaban con una cantidad enorme de datos en sus computadoras, bases de datos de clientes, de ventas, de inventarios, etc. Los profesionales de la informática tomaron prestado el concepto de inteligencia de negocios y lo transformaron en una herramienta para soportar la toma de decisiones de negocio.

En esta época surgieron nuevos modelos para ordenar datos, tales como los conceptos de datawarehouse (almacén de datos) y datamart (tienda de datos). Con estos modelos se trata de concentrar toda la información del negocio y poder presentarla en formatos consolidados, comparables y que faciliten la toma de decisiones.

Este concepto de Inteligencia de Negocios Informático ha tenido mucho éxito y ha sido la respuesta a los problemas de consolidación de información y uniformidad de reportes. Sin embargo, la diferencia entre el concepto original de inteligencia radica en que la información que proporcionan los modelos informáticos se basa en datos internos de la organización. Si bien es muy importante conocerse a uno mismo (datos internos de la organización) es mucho más importante conocer el entorno (datos de las entidades externas a la organización).

Hace un par de años, se desarrolló un nuevo concepto de Inteligencia de Negocios en el Centro de Sistemas de Conocimiento, CSC, en el Campus Monterrey. Esta nueva propuesta representa el enfoque de Administración de Conocimiento de Inteligencia de Negocios y en ella se retoma el sentido original: la preocupación de conocer el entorno para poder tomar las mejores decisiones. Los fundamentos de este nuevo concepto están plasmados en el Modelo de Inteligencia Externa de Negocios de 360¡ del mismo CSC.

La inteligencia de negocios, vista desde el Modelo de Inteligencia Externa de Negocios de 360°, se compone de tres procesos dentro de la organización: percepción del entorno, procesamiento de la información y actuación en consecuencia. Para considerar a una organización como inteligente es necesario que se cumpla todo el ciclo. Según este enfoque, se consideran negocios no-inteligentes a los que toman decisiones sin tomar en cuenta el entorno, o a los que conocen el entorno pero no actúan en consecuencia, o a los que cuentan con la información pero no la analizan ni la interpretan de manera adecuada.

El Modelo de Inteligencia Externa de Negocios de 360° monitorea constantemente a cinco entidades externas de suma importancia para la organización: clientes, mercado, tecnolog’a, proveedores y competidores. Para cada una de estas entidades, se lleva a cabo un proceso de 360°, el cual inicia con la alineación del negocio, es decir, conocer qué es lo que realmente agrega valor al negocio, y posteriormente la definición de las decisiones que se deben tomar, la identificación de las fuentes de información necesaria, la selección de estrategia de obtención de información, la integración de la información, la validación de la información, el análisis de la información, la toma de decisiones y, por último, la valoración y ajuste.

El Modelo de Inteligencia Externa de Negocios de 360° es más completo que los de enfoque meramente informático, puesto que incluyen en sus tableros de control variables exógenas. Para tomar una mejor decisión al fijar el precio de un producto, se requiere conocer cuánto han comprado los clientes, pero más allá de este dato se requiere conocer el precio al cual lo ofrece la competencia, las ventajas y desventajas competitivas y, sobre todo, saber qué piensa y siente el cliente al respecto.

Es importante resaltar que para la administración del conocimiento los individuos forman parte del capital humano, uno de los más valiosos de la organización. El objetivo NO es hacer sistemas que piensen por las personas. La gente es y seguirá siendo un factor fundamental. Lo que se pretende es que con estos modelos y herramientas, las personas puedan tener una percepción más completa de la realidad y utilicen su creatividad en la búsqueda de soluciones a los problemas que enfrentan. Lo importante de la inteligencia de negocios de administración del conocimiento es ofrecer esta percepción; el análisis y la toma de decisiones seguirán siendo tareas del capital humano.

domingo, 17 de febrero de 2008

Tecnologia y la produccion industrial

Con este escrito pretendemos exponer de manera sencilla el impacto de las innovaciones tecnológicas en el mundo laboral.
Se trata de dar una panorámica general de sus aplicaciones más cercanas dentro de la industria y los servicios.
Este escrito no es un manual de consulta, sino que obedece a la idea de mostrar y aclarar algunos aspectos relevantes y próximos de las Nuevas Tecnologías, ya que cada día estamos viendo que es más necesario conocerlas para asegurar un puesto de trabajo en la sociedad del siglo XXI.
La historia de la Humanidad no habría sido la misma de no existir la inter-relación entre el mundo de las ideas y el progreso tecnológico, que ha ido modificando y evolucionando a las sociedades hasta llegar a nuestros días.
Ya desde la prehistoria, el propio desarrollo del ser humano ha tenido lugar gracias a los adelantos técnicos. La tecnología se revela como unos de los motores de la evolución social. Sin el desarrollo tecnológico no habría habido avance social.
En estos tiempos estamos viviendo una revolución comparable a las otras dos que ya han transformado a la Humanidad. Nos estamos refiriendo a la Revolución Neolítica y a la Revolución Industrial.

Toda revolución tecnológica ha provocado, en el pasado, una profunda reorganización de la economía y de la sociedad.
En el siglo XVIII comenzó una gran revolución industrial, cuyo objetivo general era la transformación y control de la energía para aplicarla adecuadamente a la fabricación.

Hoy puede decirse que está en marcha una nueva revolución, la Revolución de la
Información. La materia de objeto de esta nueva revolución es la información, o sea,
datos, conocimientos y programas.

La Revolución de la Información tendrá consecuencias más amplias. No es la única
innovación de los últimos años, pero constituye el factor común que permite y
acelera todas las demás. Sobre todo en la medida que la informática transforma el
tratamiento, el almacenamiento y la transmisión de la información, va a modificar el
sistema de las organizaciones y de la sociedad en su conjunto.

En definitiva, asistimos al nacimiento de una nueva sociedad de la información
donde la gestión, la calidad y la velocidad de información se convierten en factor
clave de la competitividad: como insumo para el conjunto de la industria y como
servicio prestado a los consumidores finales, las tecnologías de la información y la
comunicación condicionan la economía en todas sus etapas.

Unido a los cambios que están produciendo la aplicación de nuevas tecnologías de
la información y de la comunicación, los avances de las ciencias de la vida -
biotecnologías- generarán modificaciones en la productividad comparables a los citados,mediante actividades de creación e innovación en ámbitos muy competitivos
de la industria y la agricultura.

La mayoría de los expertos consideran que las Nuevas Tecnologías son básicamente las
siguientes:
•• Tecnologías de la información.
•• Telecomunicaciones.
•• Biotecnología.
•• Nuevos materiales.
•• Tecnología nuclear.
•• Tecnología espacial.

Naturalmente todas ellas tienen efectos profundos sobre la calidad de vida, sobre el cambio social y sobre los estilos de vida. Sin embargo, los cuatro primeros campos citados tienen una incidencia más directa sobre la ciudadanía.
Para que una tecnología tenga efectos económicos generalizados e implicaciones importantes sobre el empleo, es necesario que:

a) Genere un amplio conjunto de nuevos productos y/o servicios.
b) Tenga aplicaciones en muchos sectores de la economía.
c) Reduzca los costos y mejore el funcionamiento de los procesos, productos y sistemas existentes.
d) Obtenga una aceptación social generalizada con una oposición mínima.
e) Tenga perdurabilidad a lo largo de un período de tiempo.
f) Genere fuertes intereses industriales basados en la rentabilidad percibida y en las ventajas competitivas.
De hecho, no todas las innovaciones actuales tienen las mismas consecuencias sociales
y económicas.

A continuación hacemos una clasificación de las Nuevas Tecnologías en relación con el
sector de la economía en el que más influencia tienen.
SECTOR PRIMARIO:
•• Biotecnologías.
•• Ingeniería genética.
•• Nuevas tecnologías agrícolas.
SECTOR SECUNDARIO:
•• Autómatas programables.
•• Control numérico.
•• Energías alternativas.
•• Fabricación asistida por computadora.
•• Fabricación integrada por computadora.
•• Hidráulica y mecánica.
•• Láser.
•• Robótica.
•• Tecnologías aplicadas a los nuevos materiales.
•• Reciclaje de residuos y tecnologías limpias.
SECTOR TERCIARIO:
•• Diseño asistido por computadora.
•• Domótica.
•• Multimedia.
•• Ofimática.
•• Realidad virtual.
•• Telecomunicaciones.

La transición hacia la sociedad tecnológica o de la información debe salvar uno de los impedimentos que frenan este salto cualitativo: el que los trabajadores se formen para las nuevas tecnologías.
Entre los síntomas que se observan en una sociedad anquilosada se cuenta como protagonista
la reticencia de sus miembros a renovar sus capacidades, sus conocimientos y
sus habilidades.
Está en cuestión la misma concepción de puesto de trabajo. Opciones como el autoempleo,
el teletrabajo, la teleinformación, son algunas de las alternativas que empiezan a abrir la
sociedad de la información.
En un mundo que como el nuestro está en continua mutación, la única manera de aprovechar las oportunidades que ofrecen las nuevas tecnologías es adaptarse a dichas transformaciones y, para ello, hay que estar dispuestos a cambiar de trabajo varias veces a lo largo de la vida. Estos cambios implican la necesidad de una formación que ha de ser continua mientras dure la actividad laboral.
-
•• Procesos fabriles en general: metrología, control numérico, robótica, fabricación
asistida por computadora, autómatas programables, fabricación flexible, control de procesos,
instrumentación electrónica.
•• Nuevos sistemas y procesos: fertirrigación, riegos automáticos, grabación automática,
aplicación del láser en procesos de producción, reproducción automática de documentos, procesos de infografía, procesos de huecograbado, nuevas aplicaciones en
fotocomposición y fotomecánica, sistemas automáticos de limpieza de depósitos y estanques,sistemas de seguridad en galerías y en procesos mineros, sistemas de instrumentación para procesos de fotogrametría, sistemas de control de tráfico automatizados, sistemas de bloqueo (transporte), aplicaciones metrológicas, mecanización automatizada de los procesos de laboratorio, sistemas de revelado radiológico, procesos de mecánica corporal y ergonómica, mecanización de servicios al cliente.
•• Investigación y desarrollo (I+D): ingeniería genética (reproducción y selección de
especies), tratamiento biológico de aguas para reproducción, productos ecológicos, procesos de fermentación (microbiología), nuevos materiales, analítica controlada por láser (espectroscóspica y microscópica), aplicaciones de tecnología genética (laboratorio).
•• Nuevas máquinas herramientas y equipos: servidores de profundidad, radares radio
balizas detectores de palangre, mecanización agrícola, mecanización automatizada
para la extracción y transporte de mineral, útiles y herramientas de artesanía, equipos de proyección cinematográficos, maquinaria de pre-impresión e impresión gráfica, equipos de medida controlada por computadora, equipos TIG/MIG para soldadura, plegado y empaquetado, maquinaria para carga, descarga, separación y acondicionamiento de productos químicos, equipos de laboratorio para estudios anatómico-patológicos, equipos de medicina nuclear, equipos para eléctromedicina, equipos radiológicos, instrumentación óptica de alta precisión, equipos de control de tráfico programados, dispositivos de alarma.

•• Métodos y sistemas: almacenaje de productos, sistemas de trabajo operativo, aplicación de la información a la gestión, aplicación de la logística a la producción, aplicación de técnicas de ingeniería financiera, regulación de procesos, sistemas de gestión del mantenimiento (SGM), técnicas de gestión especial para material de alta sensibilidad y de laboratorio, técnicas de control y desplazamiento de cargas en los muelles.
•• Planificación, programación y desarrollo: organización y desarrollo de programas
operativos: de gestión comercial, de gestión de centros integrados, de logística de almacenaje de mercancías, de promoción comercial y venta de productos. Planificación integrada de la estiva y desestiva de mercancías, logística por telecontrol y telegestión, desarrollo del marketing informático.
•• Control de calidad: certificación de calidad, control procesos mecanizados, control de acabados, aplicación de la calidad con vistas al cliente, calidad total, círculos de calidad,calibración y transmisión espectral (productos químicos), pruebas de calidad con espectrómetros y cámaras de grafito.
•• Servicios telemáticos: interconexión de servicios (base de datos, correo electrónico,video, órdenes de mando y control, etc.), transmisión de datos, telecontrol, mensajería de voz, radioemisores, radiotelefonía, telefonía móvil, transferencia electrónica de fondos.
•• Sistemas: equipos de navegación y comunicación vía satélite, sistemas de ayuda a la explotación, comunicaciones entre sistemas.
•• Comunicaciones especiales: desarrollo de redes locales, Internet e Intranet aplicado a las comunicaciones.
•• Software: sistemas operativos y expertos, aplicaciones informáticas: de gestión, de control de procesos de producción y servicios. Aplicaciones informáticas aplicadas: a la gestión y control del mantenimiento, al control de calidad, a la gestión y control de procesos administrativos. Sistemas informáticos corporativos aplicados a Sociedades, programas de control asistencial, estudios y resultados clínicos. Lenguajes para programación, base de datos, aplicaciones ofimáticas y multimedia, CD-Rom, diseño asistido, diseño asistido para proyectos de cálculos de estructuras.
•• Hardware: equipos de computadoras, periféricos, PCs, sistemas de redes locales.
•• Tratamientos generales: tratamiento de: aguas para manipulación y procesado de
especies, control de aguas residuales, residuos sólidos, residuos mineros, aeróbico de residuos.

martes, 12 de febrero de 2008

De las máquinas mecánicas a las máquinas electrónicas y de las máquinas de cálculo a las máquinas literarias. La integración en red.

"Un método para el Universo Molecular es un deseo escandaloso; pero la naturaleza del tema
hace este desiderátum de consecución improbable. Tal descubrimiento (si es totalmente posible)
sólo se podría realizar por métodos muy indirectos; y exigiría una mente que uniera un hábito
de razonamiento y observación pragmático con la máxima imaginación, una unión imposible en sí misma".

Ada Lovelace

De las máquinas mecánicas a las máquinas electrónicas y de las máquinas de cálculo a las máquinas literarias. La integración en red.
El ábaco puede ser considerado como la primera computadora. Se utilizaba ya hace 5.000 años en Asia Menor y aún se sigue usando habitualmente como instrumento de cálculo en algunos países como China. En Europa fue perdiendo importancia a medida que se fue extendiendo, a lo largo y ancho de 12 siglos, el empleo de lápiz y papel (también se supone originado en China hace más de 2.000 años, sirviéndose de bambú y paños viejos). El sistema de anotación y cálculo algebraico (vocablo procedente del árabe) tuvo su origen en la aritmética hindú y árabe que se introdujo en occidente a través de los sabios árabes y comerciantes asiáticos. De India, procede la utilización de números escritos en lugar de piedras o cuentas, y el uso de los mismos símbolos -un total de 10- sin importar su posición, para expresar todos los números. Un 0 o un punto servían para indicar una columna vacía. Pero no fue hasta el Renacimiento, cuando se generaliza en Europa el empleo de la numeración 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9 en lugar de la numeración romana, venciendo la oposición de la Iglesia católica.


En 1642 Blaise Pascal (1623-1662) inventa la llamada pascalina, aunque él la denominó calculadora de rueda numérica. Se trataba de una caja rectangular metálica que usaba 8 ruedas giratorias y empleaba base decimal. Cuando se movía una rueda 10 muescas, o una revolución completa, se movía la siguiente rueda un lugar, que representaba la columna del 10. Cuando la rueda del 10 se movía una revolución completa, se movía la rueda que representaba el lugar 100, etc. El inconveniente de la pascalina, era que se limitaba a la adición.


En 1694, el filósofo y matemático alemán, Wilhelm Leibniz (1646-1716) inventa la máquina aritmética. Tomando las notas y dibujos originales de Pascal, mejoró la pascalina añadiendo la función de multiplicar. El funcionamiento de este multiplicador mecánico era también a base de ruedas y engranajes.


En 1820 se difundieron las calculadoras mecánicas. El francés Charles Xavier Thomas de Colmar, inventó el aritmómetro, una máquina que permitía sumar, restar, multiplicar y dividir, y que fue usada hasta la Primera Guerra Mundial.


Los ordenadores, tal y como los conocemos ahora, comienzan con el matemático inglés Charles Babbage (1791-1871) cuya idea fue automatizar ciertas tareas repetitivas para que se ocuparan de ellas las máquinas y no los matemáticos. En 1833, Babbage presentó parte de una máquina programable impulsada por vapor que podría ejecutar diferentes ecuaciones y la llamó máquina diferencial. Podía sumar 16 cifras y era capaz de calcular tablas en dos o tres órdenes de diferencias y, en parte, de calcular otras tablas. A pesar de su artificiosidad, la máquina de diferencias solo era capaz de sumar, por lo que Babbage se propone inventar otra máquina que realizara todas las operaciones aritméticas, así surge la máquina analítica.

La máquina nunca fue construida, pero ya daba idea de los elementos básicos de un ordenador moderno. Constaba de más de 50.000 componentes y el diseño básico incluía dispositivos de entrada para tarjetas perforadas que contenían instrucciones operacionales y un almacén de memoria de 1.000 números de hasta 50 dígitos decimales. También poseía una unidad de control que permitía procesar instrucciones en cualquier secuencia, y dispositivos de salida para imprimir los resultados. La máquina de Babbage disocia por primera vez, las funciones de cálculo y memoria, y prevé un funcionamiento controlado por programas codificados en tarjetas perforadas. La idea de las tarjetas perforadas para codificar las instrucciones de la máquina, fue tomada de los telares de Jacquard. Hacia mediados del siglo XVIII, las tejedoras podían tardar dos o tres semanas en montar un telar para realizar un diseño concreto. A principios del XIX, se empezaron a usar los primeros rollos de papeles agujereados y poco después, tarjetas perforadas, que convierten al telar en la primera maquinaria automática. Joseph Marie Jacquard, un ingeniero francés, tuvo la brillante idea de conectar los grupos de hebras que se enhebraban juntas a una palanca diferente que sólo correspondía a ese grupo. Las palancas terminaban en unas varillas y una ficha de cartón rectangular que manejaba así las varillas. Si la tarjeta, en vez de ser lisa, se perforaba con los agujeros correspondientes a las extremidades de las palancas apropiadas, cada una de las palancas pasaría a través del patrón del cartón y todo quedaría en su lugar al reproducirse en la tela. En 1812, mientras Lord Byron, ofrecía su discurso inaugural en la Cámara de los Lores, los luditas destruían los nuevos telares porque una sola máquina realizaba el trabajo de varios hombres y los obreros eran despedidos.


Augusta Ada King, Condesa de Lovelace (1815-1842), ayudante de Babbage e hija de Lord Byron, contribuyó de forma decisiva al diseño la máquina analítica. Ada creó rutinas de instrucción y se convirtió en la primera mujer programadora. En los años 80 del siglo XX, el Departamento Departamento de Defensa de EE.UU. puso el nombre de ADA, en su honor, a un lenguaje de programación. El excelente libro de Sadie Plant, Ceros + Unos, un hermosísimo hipertexto escrito en papel, hace un repaso histórico por el desarrollo científico y tecnológico digital a través de la figura, pensamientos y reflexiones de Ada Lovelace y otras muchas mujeres que desde los telares, las centralitas telefónicas o la programación, contribuyeron de forma decisiva a tejer la red en la que ahora estamos inmersos.


En 1889, Herman Hollerith (1860-1929), con el fin de buscar un método más rápido para calcular el censo estadounidense -cuyo recuento en 1880 había durado más de 7 años- también aplicó el concepto del telar de Jacquard a la informática. Hollerith usó tarjetas para almacenar los datos de información y una máquina compilaba los resultados mecánicamente. Cada perforación sobre una tarjeta representaba un número y las combinaciones de dos perforaciones representaban una letra. En una tarjeta podían almacenarse 80 variables. En seis semanas el censo estuvo listo y además, las tarjetas se podían utilizar como un método para almacenar datos y evitar errores de cálculo. Con su lector de tarjetas perforadas se fundó la empresa Tabulating Machine Company que en 1924 se convirtió en IBM. La calculadora de Hollerith mediante tarjetas perforadas, coincidió en el tiempo con la expansión de las máquinas de escribir Remington y los teléfonos de AT&T y Bell.


En 1931, Vannevar Bush (1890-1974), el padre del hipertexto, desarrolló una gran calculadora analógica para resolver ecuaciones diferenciales complejas: el analizador diferencial. La máquina era muy voluminosa porque requería cientos de engranajes y ejes para representar los números y las relaciones de cada uno.


Para evitar la voluminosidad de la calculadora de Bush, el profesor John V. Atanasoff y el estudiante Clifford Berry de la Iowa State University, imaginaron un ordenador completamente electrónico que aplicaba el álgebra booleana en el sistema de circuitos electrónicos. George Boole (1815-1864) había determinado el sistema binario para el álgebra (cualquier ecuación matemática podía ser declarada simplemente como verdadero o falso), llevando este concepto a los circuitos electrónicos, Atanasoff y Berry desarrollaron el primer ordenador electrónico en 1940: ABC (the Atanasoff and Berry Computer)


En 1936, el matemático y lógico inglés Alan Turing publica un artículo acerca de un complejo programa de lógica matemática que contiene la descripción de un autómata abstracto, la llamada máquina universal, capaz de efectuar todos los cálculos inimaginables. Gracias a lo preciso de su descripción, Turing logró demostrar la existencia de problemas no solubles por la máquina universal y, por consiguiente, por ningún método de cálculo. Posteriormente, Turing participó en varios proyectos de calculadoras electrónicas inglesas y en la construcción de los primeros ordenadores. La vida de Alan Turing estuvo rodeada de un halo de misterio y extrañeza, acusado de "actos de grave indecencia" a causa de su homosexualidad fue obligado a tomar estrógeno como condena, pero su muerte no le anduvo a la zaga, el juez certificó suicidio, pero su madre sembró la duda al afirmar que solía manejar cianuro. Al lado de la cama del muerto había media manzana a la que Turing había dado tres mordiscos (una manzana con tres muescas es el logotipo de los ordenadores Macintosh de Apple).


Pero es a John von Neumann a quien se considera fundador de la informática por ser el redactor de los planos del EDVAC (Electronic Discrete Variable Automatic Calculator), primer documento que describe la disposición interna y los principios de funcionamiento de los ordenadores modernos. Sin embargo, los planos de la EDVAC eran fruto del trabajo y las ideas de la Moore School of Electrical Engineering, un grupo de trabajo de la Universidad de Pensilvania que acaba de diseñar la primera calculadora electrónica americana y estaba poniendo en marcha una segunda.


Al matemático e ingeniero estadounidense Claude Elwod Shannon (1916-2001), investigador de los laboratorios Bell y profesor en el MIT y autor de la "Teoría matemática de la información" (1948), se le considera el padre de las comunicaciones digitales y de otras muchas aportaciones científicas en el campo de los ordenadores, las comunicaciones digitales y la inteligencia artificial, tales como la optimización en la transferencia de datos punto a punto, el ancho de banda, la compresión de datos para la transmisión de información digital, el uso de la lógica booleana para describir cómo una máquina recibe información, la criptografía, etc. Shannon fue el primero en identificar el bit como la unidad fundamental de datos y, por tanto, la unidad básica de la computación. Entre sus inventos se encuentran desde un ratón mecánico capaz de aprender cómo se sale de un laberinto hasta una máquina de jugar al ajedrez precursora del famoso Deep Blue, la máquina que derrotó a Kasparov.


En 1948, Norbert Wiener publica "Cybernetics: Communication and Control in Animal and Machine" y acuña el término cibernética. Los sistemas cibernéticos son máquinas que incorporan algunos mecanismos que permiten autogobernarse (del griego cybernos: timonel de barco) y autorregularse, esto es, que funcionan con autonomía. Estas máquinas poseen mecanismos para detectar señales que llegan del exterior y se caracterizan por la búsqueda del equilibrio. Las máquinas solían calentarse, desajustarse, oscilar, romperse, etc. en el uso y era necesario un sistema de retroalimentación que las mantuviera en un estado estable, regulando la temperatura, velocidad, etc. Por otro lado, los sistemas interactuaban unos con otros y constituían nuevos sistemas. Estas teorías influyeron de manera notable para la moderna cibernética y la inteligencia artificial. Así, se comenzaron a explorar las similitudes entre el cerebro humano y las modernas máquinas de computación capaces de adquirir memoria por asociación, de elegir y de tomar decisiones.


Desde los años 50 hasta la actualidad, se inicia la búsqueda de materiales que permitan construir ordenadores cada vez más pequeños y con velocidades cada vez mayores. Se suceden tubos de vacío, transistores, circuitos integrados de silicio, microprocesadores, superconductores, etc. La microingeniería y nanoingeniería hacen su aparición y se buscan microprocesadores cada vez más pequeños y a velocidades inimaginables para la mente humana: microsegundo (1.000.000 de segundo), nanosegundo (1/1.000.000.000 de segundo), picosegundo (1/1.000.000.000.000 de segundo), femtosegundo (1/1.000.000.000.000.000 de segundo), etc. En 1957 IBM preveía un mercado de ventas de entre 50 y 250 ordenadores, dos años más tarde se utilizaban 2.000 ordenadores en empresas y organismos gubernamentales.


En 1969 nace la red ARPAnet, origen de Internet. Desde entonces, cables telefónicos, cables de fibra óptica, líneas de telecomunicaciones y satélites conectan los ordenadores configurando una extensa red a escala planetaria por donde fluyen la información y las comunicaciones. Conectividad, hipertextualidad e interactividad son las características de este nuevo espacio virtual llamado ciberespacio en donde la World Wide Web, una interfaz que utiliza el lenguaje HTML o lenguaje de marcas de hipertexto, juega un papel importantísimo para conectar con cualquier otro punto de la red, publicar o recuperar información multimedia y buscar todo tipo de información. En 1995 aparece el primer navegador gráfico y poco tiempo después hacen su aparición los buscadores, los robots y los agentes inteligentes para indizar y recuperar los documentos dentro de la inmensa telaraña y biblioteca mundial.


En 1977 Ilya Prigogine e Isabelle Stengers publican Order Out Of Chaos, demostrando que el caos aparece altamente ordenado a escala microscópica. Nacen las teorías del caos, la complejidad, la lógica difusa, la concepción del cerebro como formado por complejas redes neuroquímicas, el conexionismo y las redes autoorganizativas. Todas estas teorías conformarán una corriente dentro de la llamada Inteligencia artificial y los sistemas expertos.


En 1981 aparecen los primeros PCs (Personal Computers) u ordenadores personales, por lo que el uso de los ordenadores deja de ser monopolio de las grandes empresas y de los gobiernos y se universaliza su utilización. Hacia 1993 nacen las interfaces gráficas de usuario, lo que facilita el uso de los ordenadores por parte de personas no expertas. En 1995 aparecen los primeros ordenadores con capacidad multimedia y hoy la informática es una constante en el hogar, el mundo laboral, la investigación científica, el entretenimiento, las comunicaciones personales, los medios de comunicación, la educación, la ciencia documental, etc. El uso de Internet se generaliza para el gran público en el corto período que abarca de 1995 a 2000 y hoy es una constante en nuestras vidas.

Entre los precursores del ordenador o fundadores de la informática se suele destacar a los matemáticos, sin embargo, también jugaron un papel crucial los ingenieros, los mecánicos y otros profesionales como filósofos, biólogos, científicos de la información y la comunicación, etc. y, sobre todo, es preciso destacar el papel fundamental que para todos ellos tuvo la lógica formal.

La informática, considerada a medio camino entre la ciencia y la técnica, ha hecho que al interpretar su historia se destacara bien el aspecto científico (tanto las personas: Babbage, Turing o von Neumann, como las estructuras lógicas), bien el aspecto técnico a través de los materiales y dispositivos físicos que hicieron posible lograr las velocidades necesarias para efectuar tan complicadas operaciones. Por esta razón, la historia de la informática se suele representar a través de una sucesión de materiales que han configurado las llamadas generaciones de materiales y que hacen un recorrido desde las máquinas mecánicas, pasando por las electromecánicas hasta desembocar en las electrónicas, las microelectrónicas y los ordenadores cuánticos. Todas ellas han hecho posible el uso de los ordenadores como máquinas literarias y documentales.


--------------------------------------------------------------------------------

Bibliografía
Brown University. Events in the life of Vannevar Bush. http://www.cs.brown.edu/research/graphics/html/info/timeline.html

Department of Computer Science at Virginia Tech. The History of Computing. http://ei.cs.vt.edu/~history/

HODGES, Andrew. The Alan Turing HomePage. http://www.turing.org.uk/turing/

LÉVY, Pierre. "La invención del ordenador". En Serres, M. (ed.). Historia de las Ciencias. Madrid. Cátedra, 1991.

Massachusetts Institute of Technology. http://web.mit.edu/

Maxfield & Montrose Interactive. A History of computers. http://www.maxmon.com/history.htm

MUUSS, Mike. History of Computing Information. http://ftp.arl.mil/~mike/comphist/

The National Science Foundation. http://www.nsf.gov/

PLANT, Sadie. Ceros + Unos. Barcelona, Ediciones Destino, 1998. [Volver]

PRIGOGINE, I and STENGERS, I. Order of Caos. Bantam Books, New York, 1983. http://www.mountainman.com.au/chaos_02.htm [Volver]

RHEINGOLD, Howard. Tools For Thought: The People and Ideas of the Next Computer Revolution. http://www.rheingold.com/texts/tft/

SHANONN, C.E. y WEAVER, W. Teoría matemática de la comunicación. Madrid, Forja, 1981.

School of Mathematics and Statistics at the University of St Andrews, Scotland. Index of Historia Mathematicians. http://www-groups.dcs.st-and.ac.uk/~history/Mathematicians/

Smithsonian Institution. "Information Technology". En Encyclopedia Smithsonian. http://www.si.edu/resource/faq/nmah/techhistory.htm

SUNY Cortland. CAP 100: Introduction to Computers Applications. http://www.cortland.edu/cap/Cap100Web

La historia de los ordenadores expresada en generaciones de materiales

La historia de los ordenadores expresada en generaciones de materiales
Una aproximación muy común a la historia de los ordenadores es aquélla que suele expresarse como si se tratara de un progreso lineal e inexorable en la historia de los materiales con los que están fabricados, y en la que se distinguen varias generaciones:

Primera generación (1945-1956): Estos ordenadores se caracterizaban porque las instrucciones operativas se hacían para que el ordenador realizara una tarea específica. Cada ordenador tenía programas distintos en lenguajes de programación diferentes, lo que limitaba su versatilidad y velocidad. Empleaban tambores magnéticos para almacenar los datos y tubos o válvulas de vacío, por lo que eran de tamaño gigantesco.


En la II Guerra Mundial, los gobiernos desarrollan ordenadores con fines militares y estratégicos, así surgen el Z-3 alemán construido por Konrad Zuse en 1941; el Colossus Mark 1 de 1943 en Inglaterra, un ordenador para descifrar los mensajes alemanes bajo el código secreto Enigma y que tuvo poco impacto porque permaneció secreto hasta varias década después; y el construido por Howard H. Aiken, ingeniero de IBM diseñado para crear cartas balísticas para la marina estadounidense. Cuando fue puesto en marcha el Mark 1, temblaron las luces de Pensilvania.


John Presper Eckert (1919-1995) y John W. Mauchly (1907-1980) diseñan en 1946 el Electronic Numerical Integrator and Calculator (ENIAC), producido por el gobierno estadounidense y la Universidad de Pensylvania. Contenía 18.000 tubos de vacío, 70.000 resistencias y 5 millones soldaduras, y consumía 160 kilovatios de potencia.


A mediados de los años 1940 John von Neumann (1903-1957) se unió al equipo de la Universidad de Pensilvania donde en 1945 diseñó el Electronic Discrete Variable Automatic Computer (EDVAC) con una memoria para almacenar programas y datos. El elemento clave en la arquitectura del EDVAC era la unidad central, que permitía coordinar todas las funciones de ordenador en un único lugar.


En 1951, la empresa Remington-Rand, surgida del éxito comercial de la máquina de escribir, construyó el UNIVAC I (Universal Automatic Computer), uno de los primeros ordenadores disponibles comercialmente.


Segunda generación (1956-1963): más rápidos, más eficientes energéticamente y más pequeños gracias a la utilización de transistores, que también sustituyeron a los tubos de vacío en los televisores.


Las primeras máquinas a escala que utilizaban transistores eran superordenadores que fueron desarrollados para laboratorios de energía nuclear que necesitaban manejar una enorme cantidad de datos, es el caso de Stretch de IBM y LARC de Sperry-Rand. Sólo dos LARCs fueron instalados, uno en Lawrence Radiation Labs en Livermore, California, por lo que el ordenador fue llamado (Livermore Atomic Research Computer) y otro en U.S. Navy Research and Development Center en Washington. El lenguaje máquina se sustituyó por lenguaje ensamblador, permitiendo códigos de programa de forma abreviada para sustituir a códigos binarios.


A principios de 1960, ya existían muchos ordenadores que eran usados por el gobierno, universidades y empresas y que eran comercializadas por IBM, Control Data, Honeywell y Sperry-Rand, entre otras. Contaban ya con muchos de los componentes del ordenador actual: impresoras, cintas de memoria, almacenaje en cinta, almacenaje en disco, memoria, sistemas operativos y programas almacenados. Uno de los más conocidos fue IBM 1401, considerado como el modelo T de la industria informática. Hacia 1965, la información financiera se procesaba ya en ordenadores de esta segunda generación.


En esta época comienzan a usarse lenguajes de alto nivel como COBOL (Common Business-Oriented Language) y FORTRAN (Formula Translator), surgen nuevas profesiones como programador, analista, experto en sistemas informáticos, etc. Además, comienza el despegue de la industria del software.


Tercera generación (1964-1971): los circuitos integrados


Los circuitos integrados sustituyen a los transistores que generaban mucho calor y dañaba las partes sensibles internas del ordenador. Jack Kilby, ingeniero de Texas Instruments, patentó el circuito integrado, en 1958, a partir de las rocas de cuarzo, aunque fue fabricado primero por Bob Noyce. El circuito constaba de tres componentes electrónicos sobre un pequeño disco de silicio. Después se logró encajar más componentes sobre una única viruta, llamada semiconductor. Así los ordenadores se hicieron cada vez más pequeños. La tercera generación también introdujo el sistema operativo que permitió a máquinas controlar muchos programas diferentes con una unidad central que supervisaba y coordinaba la memoria. En 1964 Thomas Kurtz y John Kemeny crean BASIC, un lenguaje de programación muy fácil de aprender, para sus estudiantes en el Dartmouth College. Un año más tarde surgen los lenguajes orientados a objetos. En 1967 se inventa el disco flexible para almacenar los datos y en 1969 se introdujo el sistema operativo UNIX.


Cuarta generación (1971 hasta hoy): los microprocesadores


Después de la aparición de los circuitos integrados, el único avance era reducir el tamaño. En los años 80 se integran a gran escala cientos de miles de componentes en un chip, llegando hasta una ultraintegración en la que se pueden incluir millones de componentes. Esto disminuyó el tamaño y precio de los ordenadores y también aumentó su eficacia y la fiabilidad. El chip 4004 de Intel, desarrollado en 1971 por Ted Hoff, llevó el circuito integrado aún más lejos localizando todos los componentes de un ordenador (la unidad central, la memoria) sobre un chip minúsculo. Mientras que con anterioridad el circuito integrado debía ser fabricado para un objetivo especial, ahora podía fabricarse un microprocesador y luego ser programado para cualquier tipo de demanda. Los microprocesadores se integraron pronto en artículos de uso cotidiano como televisores, microondas, lavavajillas, automóviles, etc.


A mediados de los años 70, los fabricantes intentaron llevar los ordenadores a los consumidores generales. Estos miniordenadores se ofrecían con paquetes de software fáciles de usar, los programas más corrientes eran los de procesamiento de texto y los de hoja de cálculo. En 1975, el ingeniero Ed Roberts construyó una caja de cálculo a la que llamó Altair. Se trataba de un ordenador de pequeña escala en torno a un microprocesador que fue la base para el diseño del Apple I y luego del Apple II, el primer microordenador comercializado con éxito y que los jóvenes Steve Wozniak y Steve Jobs montaban en el garaje de su casa en Menlo Park (Silicon Valley). Así nace Apple Computers. Otros otros ordenadores pioneros fueron Commodore y Radio Shack. El software para los ordenadores personales surge a mediados de los setenta gracias el entusiasmo generado por Altair. Otros dos jóvenes, Bill Gates y Paul Allen, adaptaron el lenguaje BASIC para que funcionará en la máquina Altair en 1976 y poco después, en 1978, fundan la compañía Microsoft en Seattle, que se convertirá en un verdadero gigante del software. A mediados de la década de 1970, Silicon Valley se había convertido en la meca informática y tecnológica, ya que había atraído a miles de jóvenes provenientes de todo el mundo. En este valle a 48 km al sur de San Francisco, entre Stanford y San José, nacieron el circuito integrado, el microprocesador y el microordenador, entre otras tecnologías clave, y durante más de 4 décadas ha sido el lugar de mayor innovación tecnológica. A principios de los 80, los juegos de ordenador y los sistemas de viodeojuegos como Atari 2600 hicieron que los consumidores demandaran ordenadores para el hogar más sofisticados y programables.


En 1981, IBM introdujo su Ordenador Personal (PC) para el empleo en casa, oficinas y escuelas, cuyo nombre se convirtió en el acrónimo de los miniordenadores. En 1981 también nace el MS-DOS o Microsoft Disk Operating System, el software básico para los nuevos IBM PC. El número de PCs en el lugar de trabajo se dobló de 2 millones en 1981 a 5.5 millones en 1982. En 1995 ya se usaban más de 65 millones de ordenadores personales. Los ordenadores siguieron su tendencia hacia la reducción de tamaño, y nacieron los ordenadores portátiles y de bolsillo. En competencia directa con el ordenador personal de IBM estaba la línea Apple de Macintosh, presentada en 1984. Su diseño era notable y muy fácil de usar. Ofrecía un sistema operativo que permitía a los usuarios mover los iconos de la pantalla en vez de escribir a máquina instrucciones. Los usuarios controlaban el cursor usando el ratón, un dispositivo que imitaba el movimiento de la mano sobre la pantalla de ordenador.


A los avances en microelectrónica y software, hay que añadir los importantes progresos efectuados en cuanto a las capacidades de interconexión. A finales de los 80 y principios de los 90, los ordenadores dejan de considerarse simples máquinas calculadoras o literarias aisladas y se convierten en nodos de una red global llamada Internet. Y se fusionan textos, imágenes fijas y en movimiento, sonidos, vídeos, etc. en un espacio multimedia interactivo. Ha nacido el ciberespacio. La potencia fue aumentando y, además, podían unirse o conectarse en una red, compartir el espacio de memoria, el software, la información, etc. y podrían servir para comunicarse. Así nacieron las redes locales (LAN) o Intranets y también podían conectarse por línea telefónica hacia la red global como Internet. Nacían las superautopistas de la información. Los avances en Optoelectrónica (fibras ópticas y transmisión por láser) y en la tecnología de la transmisión de paquetes digitales ampliaron de forma espectacular la capacidad de las líneas de transmisión. A esto se sumaron avanzadas arquitecturas de conmutación y selección de rutas, como el Modo de Transferencia Asíncrono (ATM) y el Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP) que son la base de la denominada autopista de la información. También se desarrollan otras formas de utilización del espectro de la radio (transmisión tradicional, transmisión directa por satélite, microondas, telefonía celular digital) así como el cable coaxial y la fibra óptica, lo que ofrece una gran variedad de tecnologías de transmisión que posibilita la comunicación entre usuarios móviles.


Quinta generación (del presente al futuro)


Definir la quinta generación de ordenadores es todavía prematuro. Los recientes avances en ingeniería e inteligencia artificial han hecho posible el reconocimiento de voz, la imitación del razonamiento humano, la traducción y resúmenes automáticos, los agentes inteligentes, etc. y están sobre el tapete otras funciones como que los ordenadores aprendan de sus propias experiencias, interpreten el contexto y el significado, etc. Ejemplos de estos ordenadores de quinta generación son los sistemas expertos que ayudan a los médicos en la realización de diagnósticos aplicando cierto pasos en la resolución de problemas. Otros avances vienen determinados por mejoras tecnológicas como el procesamiento en paralelo que permite que muchas CPUs trabajen en conexión, o la utilización de superconductores que permiten que el flujo de información adquiera gran velocidad. Ya se habla de ordenadores cuánticos y del qbit o bit cuántico. Los ordenadores cuánticos almacenan la información en forma de qbits, que son estados cuánticos que representan unos y ceros. El cero y el uno podrían corresponder al estado del spin de un átomo o un electrón, lo curioso es que el átomo puede encontrarse en una superposición de ambos estados, cero y uno a la vez. Un estado cuántico es una combinación de ubicación y celeridad imposible de medir con absoluta precisión ya que una misma partícula puede estar en varios sitios a la vez o permanecer en distintos estados cuánticos. Ya se han construido ordenadores cuánticos que contienen cuatro qbits, esto es, cuatro átomos dentro de una molécula y se ha logrado operar la suma de 1+1, todo un logro que jamás Werner Heisenberg hubiera imaginado llevar a la práctica.

El desarrollo de la nanotecnología ha hecho posible la existencia de un prototipo de ordenador "AIO Card" (All In One), del tamaño de una tarjeta de crédito que funciona con energía solar y una pantalla de papel electrónico e-ink.

(Para conocer al detalle qué son, cómo funcionan y cuáles son los componentes de los ordenadores, se puede consultar la página ¿Cómo funcionan las computadoras? http://fotos.sureste.com/Infografias.asp que, a través de una serie de infografías, nos muestra de forma concisa, clara y muy gráfica, todas estas cuestiones).

La imagen de la derecha ha sido extraída de la web: http://fotos.sureste.com/Infografias.asp
Las imágenes pertenecen a: Diario de Yucatán y Compañía Tipográfica Yucateca, S.A. de C.V. Para ver la imagen a tamaño real, pinchar sobre ella).




--------------------------------------------------------------------------------

Bibliografía
BELLIS, Mary. The History of Computers. http://www.inventors.about.com/library/blcoindex.htm

BRETON, Philippe. Historia y crítica de la Informática. Madrid, Cátedra, 1989.

Computer History Museum. http://www.computerhistory.org/timeline/

Department of Computer Science at Virginia Tech. The History of Computing. http://ei.cs.vt.edu/~history/

Department of Computer Science at Virginia Tech. The machine that changed the world. http://ei.cs.vt.edu/~history/TMTCTW.html

Encyclopedia Smithsonian. Information Technology. http://www.si.edu/resource/faq/nmah/techhistory.htm

GUINEE, Kathleen. A Journey through the History of Information Technology. http://www.cs.princeton.edu/~kguinee/thesis.html

History of Computing Information http://ftp.arl.mil/~mike/comphist/

IBLNews. Desarrollan un prototipo de ordenador del tamaño de una tarjeta de crédito. 4-1-2006. http://iblnews.com/story.php?id=8270 [Volver]

Massachusetts Institute of Technology. http://web.mit.edu/

MUUSS, Mike. A History of computers. http://www.maxmon.com/history.htm

The National Science Foundation. http://www.nsf.gov/

PATTERSON, Jason. The History of computer during my lifetime. http://www.pattosoft.com.au/jason/Articles/HistoryOfComputers/

PICARD, Rosalind W. Los ordenadores emocionales. Barcelona, Ariel, 1998.

POLSON, Ken. Chronology of Personal Computers, 2002. http://www.islandnet.com/~kpolsson/comphist/

RUIZ FELIPE, Jesús. Ordenadores cuánticos. http://www.sociedadelainformacion.com/fisica/ordenadorescuanticos.htm

SUNY Cortland. CAP 100: Introduction to Computers Applications. http://www.cortland.edu/cap/Cap100Web/

Evolucion y conceptos basicas

Computación Básica

Computadora ( maquina ) Hombre
CPU cerebro
Memoria disco duro memoria
Cámara ojos
Teclado, mouse, monitor sentidos
Impresor (elementos de salida) hablar
Virus informático enfermedades
Bocinas voz
Lenguajes lengua, idioma
Herramientas de trabajo herramientas de trabajo
Alimentación (energía eléctrica) alimentación
Software conocimientos
Computadora.- Dispositivo capaz de recibir una serie de datos, procesarlos, capaz de otorgar una respuesta que permite lugar con otros avances tecnológicos, para una toma de decisiones
Evolución Histórica de las Computadoras
El ábaco.- Es probable que el ábaco haya sido el primer dispositivo mecánico de contar. Se ha podido determinar que su antigüedad se remonta cuando menos a 5,000 años.
La Pascalina (1623 - 1662).- Blaise Pascal, Filósofo y matemático francés inventó la primer máquina mecánica de sumar, se le dio el nombre de pascalina y usaba ruedas de conteo impulsadas por engranes para sumar. Aún cuando el logro de pascal fue apreciado en toda europa, la pascalina fue un estrepitoso fracaso financiero, ya que pascal era el único que podía reparar ésta máquina, además que en esa época el trabajo en cálculos aritméticos costaba menos que la máquina.
Charles Babbage (1792 - 1662).- Avanzó el estado de Hardware de cálculo al inventar una máquina de diferencias, capaz de calcular tablas matemáticas, en 1834 mientras trabajaba en mejoras de esa máquina concibió la idea de una máquina analítica. Esta era en esencia una computadora de aplicación general. Los detallados diseños de Babbage describían las características de la Computadora Electrónica moderna. Babbage ya tenía los conceptos de memoria, impresoras, tarjetas perforadas y el control secuencial de programas.
Primera Tarjeta Perforada.- El telar para tejido inventado en 1801, y aún en uso se controla por medio de tarjetas perforadas. Lo inventó el francés JOSE MARIE ( 1752-1834). Se hacen perforaciones estratégicamente situados en tarjetas y éstas se colocan en secuencia para indicar un diseño especifico de tejido, Babbage intentó aplicar el concepto de tarjeta perforada a su máquina analítica.
En 1843 Lady Ada Augusta, sugirió que podrían prepararse las tarjetas para dar instrucciones a la máquina de babbage, a fin de que repitiera ciertas operaciones. Debido a ésta sugerencia algunos la consideran la primera programadora, ya que desconocemos has que punto se implantó su idea.
Surgimiento del procesamiento automatizado de datos.-La oficina del censo de E.U.A. no completó el censo de 1880 sino hasta 1888. La administración de la oficina llegó a la conclusión de que en poco tiempo el censo de 10 años requeriría mas de 10 años en realizarse. La oficina comisionó a Herman Hollerith, especialista en estadística para que aplicara sus conocimientos en el empleo de tarjetas perforadas y realizar el censo de 1890 con procesamiento de tarjetas perforadas y la máquina tabuladora de tarjetas perforadas de Hollerith, el censo concluyó en apenas dos años. Así empezó a surgir el procesamiento automatizado de datos.
ENIAC.- Reconocida como la primer computadora digital totalmente eléctrica y de uso general, marcó el inicio de la 1era generación de computadoras, podía realizar cálculos 1,000 veces mas rápidos que sus predecesoras electromecánicas. Pesaba 30 toneladas , ocupaba un espacio de 1,500 pies cuadrados y tenía mas de 180,000 bulbos y tubos de vacío.
Código Binario.- Éste es el 1pio fundamental que respalda el diseño de las computadoras digitales. Toda la información ( incluyendo las instrucciones) se convierte en números binarios formados por cadenas de los dígitos binarios O y 1, por ejemplo, cuando se oprime la tecla A en un CPU, ésta genera de manera automática un byte, es decir un número binario de 8 bits de longitud.
Bit = 1, O 1010 = 10
Byte = 8 bits 2 (3) 2 ( 2) 2( 1) 2 ( 0) 8 +2 = 10
Generaciones de las computadoras
1era Generación ( 1946-1959).- Se caracterizó por el aspecto mas prominente de la ENIAC, tubos de vacío durante la década de 1950, se construyeron varias otras notables computadoras, contribuyendo cada una con avances significativos al perfeccionamiento de las computadoras. Estos avances incluyeron aritmética binaria, acceso aleatorio y el concepto de programas almacenados.
2da Generación ( 1960- 1963).- Para la mayoría de las personas la invensión del transistor significó la existencia de pequeños radios portátiles. Para lo relacionado con los negocios del procesamiento de datos, marcó el inicio de la 2da generación de computadoras. Gracias al transistor, hubo computadoras mas poderosas, mas confiables y menos costosas que ocupaban menos espacio.
Características predominantes de esta generación:
· El transistor
· Compatibilidad limitada dentro de la línea de computadoras de un fabricante. Por lo general los programas escritos para una computadora requerían de modificaciones antes de que pudieran correr en una computadora diferente.
· No existía compatibilidad entre fabricantes
· Orientación constante al procesamiento secuencial en cinta.
· Lenguajes simbólicos de programación de bajo nivel
· Procedimientos por lotes
3era Generación ( 1964-1967).- Los circuitos integrados hicieron por la 3era generación los que los transistores por la 2da. Los problemas de compatibilidad de las computadoras de la 2da generación, quedaron casi eliminados en las de la 3era.
A mediados de la década de la 60´s, resultó evidente que casi toda instalación de computadoras podía esperar un rápido crecimiento.
Una importante característica de las computadoras de la 3era generación fue la compatibilidad con equipo mayor, lo cual significaba que una compañía podía adquirir una computadora a un vendedor y mejorar después cambiando una computadora mas poderosa sin tener que volver a diseñar ni programar los sistemas de información.
Las computadoras de la 3era., trabajan tan rápido que permiten corre mas de un programa al mismo tiempo ( multiprogramación) .
Fueron utilizados por 1era vez procesadores fabricados con circuitos integrados. Esta generación también presentó nuevas tecnologías en software de sistema, los sistemas operativos y los sistemas de manejo de base de datos.
4ta Generación ( 1970-1989) .- Es mas evolucionaria que revolucionaria, iniciando hacia el último cuarto de la década de 1970, la lógica de ésta computadoras, así como sus memorias, fueron construidas casi por completo a partir de circuitos integrados que contienen cantidades muy grandes de componentes electrónicos. La 4ta g. Comprende una amplia integración de pequeñas y grandes computadoras, unidas en medio de procesamiento distribuido y de automatización de oficinas. Esta generación se integra al usuario en el medio ambiente de la computadora, mediante lenguajes informales como los lenguajes de consulta, los generadores de reportes y los programas denominados amables con el usuario y la aparición del microprocesador.
5ta Generación .- Queda formal/ e establecida durante la década de los 90´s , las fibras ópticas, los vídeo discos y otras tecnologías que por el momento se encuentran en laboratorios.
ARQUITECTURA BASICA DE LAS COMPUTADORAS
Una PC tiene todos los componentes funcionales que se encuentran en los sistemas mas grandes, está organizada para realizar las funciones de entrada, de almacenamiento, aritmética-lógica, control y salida. Algunas microcomputadoras de aplicación especial pueden reunir todas éstas aplicaciones dentro de una pantalla de silicio, pero las PC´s son por lo regular mas grandes y utilizan varias pastillas montadas en una tarjeta 1pal de circuito o tarjeta matriz .
Existen varias pastillas de memoria de acceso directo ( RAM) que se encarga de la función de almacenamiento primario. General/e se utilizan pastillas de memoria de solo lectura (ROM) para almacenar permanente/e datos o instrucciones programadas. Otras pastillas adicionales realizan funciones de cronometría, entrada/salida y otras funciones de apoyo.
Los diversos componentes de la tarjeta 1pal de circuitos de la unidad de proceso de la PC están conectadas por un conjunto de líneas paralelas conductoras de la electricidad llamada BUSES. Se utilizan diversos conjuntos de éstas líneas de conexión internas para diferentes propósitos y reciben distintos nombres. Estos buses internos constituyen la interconexión eléctrica entre los componentes del procesador y los dispositivos de interfaz que se utilizan con el equipo periférico.
Así, las PC´s están divididas en dos partes esenciales, las unidades de entrada y salida del procesador.
La 1era se refiere a los medios de comunicación con el hombre, y la 2da está dividida a su vez en tres unidades
· La de Almacenamiento de datos e instrucciones llamada de memoria , la cual ha evolucionado al grado de que en la actualidad se están estructurando otros medios como plasma y neuronas.
· El procesador, el cual también es conocido como CPU
· La unidad Aritmética que es donde se ejecutan las operaciones aritméticas y lógicas.
Las microcomputadoras están diseñadas y construidas con varios microprocesadores, siendo uno el central y los otros sirven para controlar todas y cada una de las unidades periféricas que se agregan al computador, también sirven para darle mayor velocidad a ciertas operaciones.
Componentes de un sistema computacional
Se manejan conceptos de una computadora:
Software.- Este concepto incluye aspectos tales como el sistema operativo de cada computadora, lenguajes de control, programas y todo tipo de rutinas o instrucciones necesarias para la operación de la máquina.
Hardware.- Representa el aspecto físico, partes y unidades qque comprende la computadora. Los básicos son:
· CPU ( unidad central de proceso)
· Unidades de entrada o de proceso
· Unidades de Salida
· Unidades de entrada/ salida
La función de unidad de proceso ( cpu) es donde se desarrollan propiamente todos los procesos en forma interna y está compuesta por 3 partes:
· Memoria de almacenamiento primario
· La unidad de control
· La unidad aritmético- lógica
Memoria de almacenamiento primario­.- Tanto datos como instrucciones enviadas por la unidad de entrada deben ser almacenados en la memoria o almacenamiento primario, antes de que puedan ser sometidos a cualquier proceso.
El almacenamiento 1mario lo forman posiciones de memoria llamadas byetes, en cada byte puede almacenarse un carácter proveniente de un registro o instrucciónde un programa; a cada byta lo forman a su vez un conjunto de bites, éstos son impulsos magnéticos producidos para configurar un carácter leído.
Byte.- medida de capacidad de 8 bits
Bit.- es la unidad de información que se puede representar electrónicamente.
La memoria puede ser RAM ( random acces memory) o ROM ( read only memory); (memoria de acceso aleatorio o 1mario )(disco duro.. disquette ... alm. Secundario).
Unidad Aritmético Lógica.- Es la sección del CPU donde se desarrolla todo tipo de operaciones, previamente los datos almacenados en la memoria son situados en ésta área por la unidad de control y de acuerdo con las instrucciones de un programa ( también almacenadas en memoria) , la Unit. Arit. Logica lleva a cabo las operaciones de comparación , movimiento y cálculos que se producen como consecuencia, posteriormente los resultados pasa a la memoria de salida.
La Unidad de Control.- Ésta sección del CPU controla todas las unidades del sistema y coordina las funciones de las unidades de entrada para el almacenamiento de los datos; almacena éstos en la memoria o almacenamiento 1mario; reallizadas las funciones de la unidad art. Lógica, coloca los resultados nueva/e en el almacenamiento y prepara las unidades de salida.
Unidades de Entrada.- Son las unidades que pueden leer los datos en diferentes formas en que éstos se encuentran dentro de los archivos.
La Unidad de Salida.- Son las máquinas que reciben la información procesada en el CPU y la traduce a un medio legible para el usuario.
Estas máquinas o dispositivos al igual que los de entrada, forman parte del equipo periférico de la computadora.
Organización de la información
Registro.- Es una colección de campos.
Campo.- colección de caracteres
Carácter.- 8 bits
Registro nombre xxxxxxxxx dirección xxxxxxx tel xxxxxxxx cp xxxxxxx ( x = carácter)
Archivo.- Colección de registros
Estructura jerárquica de directorios
Esto es aplicable a cualquier sistema operativo:
C:/ directorio raíz ( padre)
------------------------------------subdirectorio ( dir) hijo .............1) 2) 3) .......
------------------------------------subdirectorio ( dir) hijo
clasificación del software
se clasifica en dos:
· para uso particular ( sistemas hechos) empresa en particular
· para uso en general ( paquetería)
CLASIFICACIÓN DE COMPUTADORAS
Las computadoras pueden clasificarse de acuerdo a:
· Tipo de Datos
· Digitales.- Dispositivos de cálculo que procesan datos concretos, trabajan directamente contando números ( digitales) que representan cifras, letras y otros símbolos especiales.
· Analógicas.- Ó analíticas, no calculan concretamente números, en cambio lo hacen con variables que están medidas en una escala y son registradas con un determinado grado de precisión. ( no tan exactas como digitales )
· Híbridas.- Las características deseables de las máquinas analógicas y digitales son combinadas algunas veces para crear este tipo de sistemas de computo.
· Por Su Capacidad
· Microcomputadoras.- Son las computadoras mas pequeñas,, menos costosas y mas populares en el mercado.
· Minicomputadoras.- son mas pequeñas y más fáciles de mantenerse que una maxicomputadora ( MainFrame). Fueron diseñadas para tareas específicas como el manejo de la comunicación de datos, procesamiento de palabras y aplicaciones de multiusuarios.
· Maxicomputadoras.- son grandes y rápidos sistemas, capaces de controlar varios cientos de dispositivos de entrada y salida al mismo tiempo. Son usadas en universidades, hospitales, etc. Por su gran capacidad de pensamiento.
· Supercomputadoras.- Son las más rápidas y costosas computadoras, pueden correr varios cálculos simultaneamente, procesando en un minuto lo que tomaría semanas o meses en una PC.
TERMINOS COMPUTACIONALES
Buffer.- Area de almacenamiento que conserva información temporal/e.
En los periféricos, los buffers son unidades de memoria reservadas para conservar informaciones intercambiadas con la computadora.
Bus.- Ruta ( canal) común entre dispositivos de hardware: el término bus, puede referirse a una ruta interna común entre componentes dentro de una computadora o una red de comunicaciones que utilice un canal común ( cable, alambre etc.) entre todas las terminales y computadoras.
Lo mas común es el empleo de dos bus de datos denominados bus de direcciones y bus de datos. El bus de direcciones se utiliza para seleccionar la localidad de los datos y el de datos para su trasferencia.
Comando.- Directivas del usuario; los comandos son elementos del lenguaje dentro del software.
Protocolo de Comunicaciones.- Un protocolo es un conjunto de características del software, hardware y procedimientos que permiten a un sistema ( computadora terminal) intercambiar mensajes con otro mediante una red de comunicaciones.
Puerto.- Interfase de canal de comunicaciones; el número de puertos en la computadora, determina el nº de canales de comunicación físicos que pueden conectarse.
Paralelo.- Las interfases paralelas son utilizadas en los canales multilínea; un byte transferido a través de un canal de interfaz paralelo necesita 8 líneas ( trayectorias) una para cada bit.
Serial .- Transmisión sobre un canal de una sola línea. En la trasmisión en serie los bits van uno después de otro.
SISTEMA OPERATIVO MS-DOS
El sistema operativo .- es un programa que hace que la computadora reconozca a la CPU, la memoria, el teclado, unidades de disco etc... Además proporciona la facilidad para que los usuarios se comuniquen con la computadora.
Comandos internos y externos
En total, el ms-dos tiene casi 70 comandos, cerca de 25 de ellos están integrados al interprete de comandos de ms-dos.
Debido a que el código de programa de éstos permanece residente en memoria la mayor parte del tiempo, éstos comandos interconstituidos son llamados comandos internos.
No existe suficiente espacio para que todos los comandos quepan en la memoria RAM, así que los comandos restantes son externos.
El MS-Dos no fue diseñado para manejar grandes cantidades de memoria RAM.
Internos externos
DIR TREE
COPY XCOPY
DEL DELTREE
FORMAT UNFORMAT
MD UNERASE
7