Computación Gráfica: Historia, Definición de Algoritmos, Diagramas de Flujo

Introducción a la computación

Debido a que la tecnología forma una parte fundamental de la sociedad actual, es necesario dedicar un área específica a su estudio. Esta es definida como computación. La computación, por lo tanto, es el área de la ciencia dedicada a analizar el uso, diseño y operación de las computadoras. “La computación es la ciencia encargada de estudiar los sistemas, más precisamente computadoras, que automáticamente gestionan información.” (Enciclopedia de conceptos, 2018) Se han realizado numerosos avances en cuanto a la computación, a pesar de que es un área relativamente nueva. Las áreas de estudio más importantes en las ciencias de la computación son las siguientes:

  • Estructura de datos: el estudio de los algoritmos y de la estructura de datos. El análisis matemático es fundamental para poder solucionar problemas precisos. Por esto es necesario analizar la estructura de datos y algoritmos.
  • Sistemas operativos: para optimizar el funcionamiento de la computación, es necesario actualizar y adaptar los sistemas operativos.
  • Arquitectura computacional: esta es el área encargada de diseñar, crear y producir nuevas computadoras, con más rapidez y más capacidad. Se concentra en componentes como RAM, CPU, entre otros.
  • Lenguajes de programación: el objetivo de esta área de especialidad es crear nuevos lenguajes de programación que resulten más eficaces y con mejoramientos superiores.

Yo considero que estas áreas son de vital importancia, ya que, en conjunto, forman la computación como la conocemos. Así mismo, si estas fueran a ser desarrolladas, la computación alcanzaría un nivel más avanzado. Esto, a su vez, favorecería el desarrollo de las ciencias y de la sociedad en conjunto.

Historia de la computación

La computación es el resultado del desarrollo de ideas relacionadas con diversas áreas como la electrónica, la mecánica, la lógica, la programación, entre otras.

La historia de la computación se remonta a tiempos desde antes de la creación del primer ordenador. Esto se refiere a la utilización de la lógica y resolución de problemas en la sociedad, lo que dio pie a la invención de la primera computadora. Un ejemplo de esto se puede ver en el año 780, cuando el matemático Musa al-Juarismi inventó el algoritmo, definido como “la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.” (Real Academia Española, 2018)

Considero que la historia de la computación debería incluir todo lo relacionado al pensamiento lógico y como este se desarrolló en la sociedad a lo largo de la historia porque considero que este es de extrema importancia para la realización de problemas de forma crítica y coherente. Esto, a su vez, llevó a la necesidad de resolver problemas de manera veloz, creando una máquina que lo hiciera de forma automática.

Concepto

La computadora se define como una máquina inteligente capaz de recibir un conjunto de instrucciones y efectuar una secuencia de operaciones, utilizando cálculos numéricos, de tal manera que se obtenga un conjunto de datos de salida. La Real Academia Española define a la computadora como “Máquina electrónica que, mediante determinados programas, permite almacenar y tratar información, y resolver problemas de diversa índole.” (Real Academia Española, 2018). Esta fue creada como resultado de las máquinas empleadas para manejar números, como son el ábaco, las primaras calculadoras y la regla deslizante. Hoy en día, las computadoras son vitales para la resolución de problemas y la manipulación de información de forma eficaz y rápida, por lo tanto, son utilizadas frecuentemente en la vida cotidiana como auxiliares en diversas áreas de trabajo. En la programación, son utilizadas como instrumento para la resolución de algoritmos, auxiliares en la creación de diferentes tareas.

Historia

La idea de la primera computadora nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. Gracias a Charles Babbage, profesor matemático de la Universidad de Cambridge del siglo XIX, la computadora fue creada. Al principio era un dispositivo mecánico para efectuar sumas repetidas.

La primera generación de computadoras abarca desde 1940 hasta 1952. En esta época, la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de lenguaje de máquina. Eran mayormente utilizadas como instrumentos en las áreas científica y militar.

La segunda generación de las computadoras reemplazó las válvulas de vacío por los transistores en 1952, hasta 1964. Por eso, las computadoras de la segunda generación son más pequeñas, más potentes y consumen menos electricidad. A su vez surgieron las primeras computadoras personales, aunque aún eran muy complejas de utilizarlas porque era necesario conocer la programación.

La tercera generación de computadoras de 1964 a 1971, son computadoras construidas con circuito integrado o microchip. Incluyen resistencias, diodos, condensadores, transistores. A mediados de los años 60 se produjo la invención del circuito integrado por Jack St. Claire Kilby y Robert Noyce. Utilizadas en cadenas de producción de sectores industriales.

En la cuarta generación de computadoras el tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales. Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip.

Las últimas generaciones de computadoras son la base de las computadoras modernas de hoy en día. Estas cuentan con arquitecturas combinadas, con cientos de microprocesadores vectoriales trabajando al mismo tiempo. Se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo.

Clasificación de las computadoras

Debido a la gran diversidad de computadoras, es necesario clasificarlas. Existen varias formas de clasificarlas, pero la forma de la que hablaré será la siguiente.

  • Analógicas: Tienen la capacidad de medir o comparar según un patrón preestablecido. Manejan señales eléctricas analógicas proporcionales a medidas físicas de tipo continuo.
  • Digitales: Este tipo de computadora maneja señales eléctricas de tipo digital y por lo tanto opera con información discreta en el tiempo. Procesa los datos siguiendo las especificaciones de un programa por medio de lenguajes y su utilización comprende cualquier tipo de trabajos.
  • Híbridas: Es la combinación de los dos anteriores.

Yo creo que a pesar de que tienen varias aplicaciones, las más complejas son las híbridas. A demás, estas pueden ser utilizadas en varios campos de las ciencias.

Elementos de un sistema de cómputo

Todos los elementos de un sistema de cómputo se dividen entre software y hardware. Ambos son de gran importancia porque juntos componen un sistema complejo para la realización de problemas y, por lo tanto, no se puede tener uno sin el otro porque ambos son necesarios para el buen funcionamiento de un sistema computacional.

Hardware

El hardware de un sistema de cómputo se refiere a todo lo físico, es decir, todo lo que se puede tocar. Según la Real Academia Española, es la voz inglesa que se usa, en informática, para designar el conjunto de los componentes que integran la parte material de una computadora u ordenador (Real Academia Española, 2018). Yo pienso que el hardware debería ser adaptado de acuerdo con el software correspondiente.

Software

El software de un sistema de computo se refiere a todo lo que no se puede tocar, lo digital. Según la Real Academia Española, el software es la voz inglesa que se usa, en informática, con el sentido de ‘conjunto de programas, instrucciones y reglas para ejecutar ciertas tareas en una computadora u ordenador (Real Academia Española, 2018).

En clase de diseño de programas espero aprender a diseñar un software optimo y funcional, así como aprender los elementos de un hardware que pueda soportarlo.

Introducción a los algoritmos

El modelado de problemas es la base para la creación de un algoritmo. Para esto es necesaria la formulación de un algoritmo especializado al problema. Primero se extrae toda la información del problema y se distinguen las variables. Estas se distinguen algebraicamente. Se expresan las condiciones y restricciones. Finalmente, se expresa el problema.

Análisis de problemas

Existen diferentes modelos para la formulación de un problema como:

  • Modelos predictivos: Este tipo de modelos informan del comportamiento de la variable en un futuro.
  • Modelos evaluativos: Una técnica evaluativa corresponde a medir las diferentes alternativas, y así poder comparar los resultados de ellas.
  • Modelos de optimización: Se trata de modelos que tratan de identificar las mejores las alternativas posibles.

Yo creo que, dependiendo del problema, se elije el tipo de modelo que se va a utilizar.

Diseño de estrategias de múltiples soluciones

En esta parte se formaliza el problema. Aquí se tiene que conocer el problema a profundidad sin tener problemas lógicos ni de análisis. Se establecen las variables matemática y finalmente se evalúa e interpreta el problema. Este proceso es muy útil no solo en la programación, sino también en todas las áreas de trabajo.

Definición de algoritmos

Los algoritmos de definen como “la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.” (Real Academia Española, 2018)

Para la realización de un programa, se requiere un algoritmo bien estructurado. En mi opinión, se necesita mucha creatividad, pensamiento lógico y conocimiento del tema para desarrollar algoritmos funcionales. Estos son independientes del lenguaje de programación porque pueden ser expresados de igual manera en cualquiera de estos. A demás, se puede llegar a un resultado por medio de distintos algoritmos, pero siempre es preferible el más corto. Para elegir el mejor, se tiene que analizar la optimización, el tiempo y los recursos.

Características principales de los algoritmos

Un algoritmo optimo y funcional debe tener las siguientes características. Debe ser preciso, definirse rigurosamente. Debe tener un principio y un fin. Debe ocupar la menor memoria posible y ser ejecutado en el menor tiempo posible. Debe ser legible y entendible. Finalmente, debe producir un resultado.

Diagramas de flujo

Para representar un algoritmo, debe ser representado gráficamente antes de ser convertido a lenguaje de programación. Para esto se utilizan los diagramas de flujo. “Se conoce como diagramas de flujo a aquellos gráficos representativos que se utilizan para esquematizar conceptos vinculados a la programación, la economía, los procesos técnicos y/o tecnológicos, la psicología, la educación y casi cualquier temática de análisis.” (Definición ABC, 2015)

Estos son utilizados para organizar procesos de manera gráfica. Es importante que estén organizados de manera clara y sencilla. Se componen de diferentes formas, líneas y frases, las cuales indican diferentes partes del proceso. A continuación, se presenta una tabla que incluye la simbología. Algunos de los símbolos más utilizados en los diagramas de flujo son la flecha (que indica sentido y trayectoria), el rectángulo (representa un evento o proceso), el rombo (una condición), el círculo (un punto de conexión) y otros.

Simbología estándar

Para su realización, se deben cumplir algunos criterios. Las siguientes son las restricciones. Son verticales: deben escribirse de arriba hacia abajo, y/o de izquierda a derecha. Los símbolos se unen con líneas. Se debe evitar el cruce de líneas. Todas las líneas se tienen que conectar y todo el texto escrito dentro de un símbolo debe ser legible. Todos los símbolos pueden tener más de una línea de entrada, a excepción del símbolo final. Deben tener más de una línea de flujo de salida.

Modelos computacionales

“En 1945 John Von Neumann creó un modelo computacional que se caracteriza por disponer de una única memoria principal en la que se almacenan los datos y las instrucciones. A esta memoria se accede a través de un sistema de buses único.” (Universidad la Salle, 2018)

 Máquina de Turing

“Alan Mathison Turing, matemático y computador científico inglés, desarrolló en torno a 1935 y 1945 un modelo computacional hipotético que permite en teoría resolver cualquier problema matemático siempre y cuando se reduzca a un algoritmo. De esta forma será posible calcular funciones dadas a partir de las operaciones más simples posibles y, aunque sea un algoritmo muy complejo, será posible descomponerlo en una mayor cantidad de pasos hasta resolverlo.” (Universidad la Salle, 2018)

Conclusión

Yo considero que las áreas de estudio en las ciencias de la computación son de vital importancia, ya que, en conjunto, forman la computación como la conocemos. Así mismo, si estas fueran a ser desarrolladas, la computación alcanzaría un nivel más avanzado. Esto, a su vez, favorecería el desarrollo de las ciencias y de la sociedad en conjunto.

Considero que la historia de la computación debería incluir todo lo relacionado al pensamiento lógico y como este se desarrolló en la sociedad a lo largo de la historia porque considero que este es de extrema importancia para la realización de problemas de forma crítica y coherente. Esto, a su vez, llevó a la necesidad de resolver problemas de manera veloz, creando una máquina que lo hiciera de forma automática.

Recomendaciones

Me gustó mucho el contenido temático de este parcial. Siento que es suficiente y refleja perfectamente de lo que la materia diseño de programas trata. Me gustaría que entrara más a detalle sobre las diferentes generaciones de las computadoras, en vez de solo hablar de sus diferencias. También me gustaría practicar el desarrollo de algoritmos más frecuentemente para estar más preparada para los parciales. Recomendaría agregar un apartado de tareas opcionales, las cuales incluyan diferentes prácticas sin valor para realizar en casa en Dev C++. También recomendaría agregar una rúbrica de especificaciones en cada trabajo, la cual incluya el porcentaje de cada detalle a evaluar. En general, me gusta mucho esta materia a pesar de que es un poco demandante, pero siento que si me esfuerzo, lograré aprobar.

Referencias

  1. Definición ABC. (2015). Diagrama de flujo. Obtenido de Definición ABC: https://www.definicionabc.com/comunicacion/diagrama-de-flujo.php
  2. Enciclopedia de conceptos. (Agosto de 2018). Concepto de computación. Obtenido de Conceto.de: https://concepto.de/computacion/
  3. Real Academia Española. (agosto de 2018). Definición de Algoritmo. Obtenido de RAE: http://dle.rae.es/srv/search?m=30&w=algoritmo
  4. Real Academia Española. (2018). Definición de Computadora. Obtenido de RAE: http://dle.rae.es/?id=A4hIGQC
  5. Real Academia Española. (2018). Definición de hardware. Obtenido de Rae: http://lema.rae.es/dpd/srv/search?key=hardware
  6. Real Academia Española. (2018). Definición de software. Obtenido de RAE: http://lema.rae.es/dpd/srv/search?key=software
  7. Universidad la Salle. (2018). Contenido Temárico. Obtenido de ULSA: file:///C:/Users/fatim/Downloads/ContenidoTemarico_PP%20Ver%201.1-1.pdf
07 July 2022
close
Tu email

Haciendo clic en “Enviar”, estás de acuerdo con nuestros Términos de Servicio y  Estatutos de Privacidad. Te enviaremos ocasionalmente emails relacionados con tu cuenta.

close thanks-icon
¡Gracias!

Su muestra de ensayo ha sido enviada.

Ordenar ahora

Utilizamos cookies para brindarte la mejor experiencia posible. Al continuar, asumiremos que estás de acuerdo con nuestra política de cookies.