2024 Once Lectura Programacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

COLEGIO PABLO DE TARSO IED

“CONSTRUCCION DE PROYECTOS DE VIDA


PRODUCTIVOS”
LECTURA PROGRAMACION
GRADO ONCE
DOCENTE: DAVID GUILLERMO ORTIZ

Objetivo: Mediante la lectura del documento que se muestra a continuación, los estudiantes
podrán analizar el medio y el contexto en el que se desarrollaron programas y algoritmos además
de la importancia de su buen uso.

¿Qué es la programación?

La programación es el acto de programar, es decir, organizar una secuencia de pasos ordenados a


seguir para hacer cierta cosa. Este término puede utilizarse en muchos contextos, es común hablar
de programación a la hora de organizar una salida, las vacaciones o de la lista de programas con
sus días y horarios de emisión de los canales de televisión o la lista de películas de un cine.

Además, en el campo de la informática, la programación es la pieza clave en la relación entre los


ordenadores y los usuarios.

Programación en informática

En el ámbito de la informática, la programación refiere a la acción de crear programas o


aplicaciones a través del desarrollo de un código fuente, que se basa en el conjunto de
instrucciones que sigue el ordenador para ejecutar un programa. La programación es lo que
permite que un ordenador funcione y realice las tareas que el usuario solicita.

Lenguaje de programación

El lenguaje de programación es un idioma artificial prediseñado formado por signos, palabras y


símbolos que permite la comunicación entre el programador y el ordenador.

Las instrucciones que sigue el ordenador para la ejecución de aplicaciones y programas están
escritas en lenguaje de programación y luego son traducidas a un lenguaje de máquina que puede
ser interpretado y ejecutado por el hardware del equipo (parte física).

El código fuente está formado por líneas de texto que expresan en lenguaje de programación las
instrucciones que debe llevar a cabo el ordenador. Este código es creado, diseñado, codificado,
mantenido y depurado a través de la programación.

Existen diferentes lenguajes de programación (HTML, Java, Pearl, Python) que se valen de
diversos programas en los que se vuelcan las instrucciones. Estos lenguajes varían con el tiempo,
se expanden y evolucionan.

¿Para qué sirve la programación?

El principal objetivo de la programación es definir instrucciones para que un ordenador pueda


ejecutar sistemas, programas y aplicaciones que sean eficaces, accesibles y amigables para el
usuario.
Los programas informáticos suelen seguir algoritmos, que son el conjunto de instrucciones
organizadas y relacionadas entre sí que permiten trabajar al software de los equipos de
computación.

Historia de la programación

Los comienzos del desarrollo de la programación informática coinciden con la aparición de las
primeras computadoras en la segunda mitad del siglo XX. La historia de la programación se puede
describir a través del desarrollo de los diferentes lenguajes de programación:

Lenguaje máquina. En este primer período se utilizaban lenguajes máquina muy básicos y
limitados basados en el sistema binario (uso de los números 0 y 1 en distintas combinaciones) que
es el lenguaje que los ordenadores reconocen, por lo que aún hoy todo lenguaje es convertido a
este. Fue reemplazado, ya que resultaba una forma de programación tediosa y difícil.

Lenguaje ensamblador. Más tarde comenzaron a surgir lenguajes que hacían uso de códigos de
palabras. Se utilizaban palabras simples, mnemotécnicas y abreviaturas que tenían su correlativo y
eran traducidas al código máquina. El lenguaje ensamblador fue incorporado porque resultaba más
fácil de recordar y realizar por el usuario que el código máquina.

Lenguaje de alto nivel. A finales de la década del 50 surgió el Fortran, un lenguaje de


programación desarrollado por IBM que dio inicio a la aparición de lenguajes basados en conjuntos
de algoritmos mucho más complejos. Estos lenguajes se adaptaban a distintos ordenadores y eran
traducidos por medio de un software al lenguaje de máquina.

Tipos de programación

Programación estructurada. Busca mejorar y reducir el tiempo del proceso al utilizar subrutinas
(subalgoritmos dentro del algoritmo principal que resuelve una tarea).

Programación modular. Divide los programas en módulos para trabajar con ellos y resolver los
problemas de manera más simple.

Programación orientada a objetos. Utiliza objetos (entes con características, estado y


comportamiento) como elementos fundamentales para la búsqueda de soluciones.

Elementos de la programación

Existen ciertos elementos que son clave a la hora de conocer o ejecutar un lenguaje de
programación, entre los más representativos están:

Palabras reservadas. Palabras que dentro del lenguaje significan la ejecución de una instrucción
determinada, por lo que no pueden ser utilizadas con otro fin.

Operadores. Símbolos que indican la aplicación de operaciones lógicas o matemáticas.

Variables. Datos que pueden variar durante la ejecución del programa.

Constantes. Datos que no varían durante la ejecución del programa.

Identificadores. Nombre que se le da a las diferentes variables para identificarlas.

*** Al crear los nombres de las variables, se debe tener en cuenta, que estos pueden ser: LETRAS,
LETRAS y NÚMEROS, PALABRAS. NUNCA PUEDEN SER NÚMEROS PORQUE SE TOMARÍAN
COMO CONSTANTES.
¿Qué es un dato en Informática?

En informática, los datos son representaciones simbólicas (vale decir: numéricas, alfabéticas,
algorítmicas, etc.) de un determinado atributo o variable cualitativa o cuantitativa, o sea: la
descripción codificada de un hecho empírico, un suceso, una entidad.

Los datos son, así, la información (valores o referentes) que recibe el computador a través de
distintos medios, y que es manipulada mediante el procesamiento de los algoritmos de
programación. Su contenido puede ser prácticamente cualquiera: estadísticas, números,
descriptores, que por separado no tienen relevancia para los usuarios del sistema, pero que en
conjunto pueden ser interpretados para obtener una información completa y específica.

En los lenguajes de programación, empleados para crear y organizar los algoritmos que todo
sistema informático o computacional persigue, los datos son la expresión de las características
puntuales de las entidades sobre las cuales operan dichos algoritmos. Es decir, son el input inicial,
a partir del cual puede procesarse y componerse la información.

Son particularmente importantes para la estructura de datos, rama de la computación que estudia
la forma particular de almacenaje de la información en porciones mínimas para lograr una posterior
recuperación eficiente.

Tipos de datos: En la informática, cuando hablamos de tipos de datos (o simplemente “tipo”) nos
referimos a un atributo que se indica al computador respecto a la naturaleza de los datos que se
dispone a procesar. Esto incluye delimitar o restringir los datos, definir los valores que pueden
tomar, qué operaciones se puede realizar con ellos, etc.

Algunos tipos de datos son:

● Caracteres. Dígitos individuales que se pueden representar mediante datos numéricos


(0-9), letras (a-z) u otros símbolos.
● Caracteres unicode. Unicode es un estándar de codificación que permite representar más
eficazmente los datos, permitiendo así hasta 65535 caracteres diferentes.
● Numéricos. Pueden ser números reales o enteros, dependiendo de lo necesario.
● Booleanos. Representan valores lógicos (verdadero o falso).

Los bits son cada entrada del lenguaje de código binario.

Algunos ejemplos de datos informáticos pueden ser los que componen la jerarquía de los datos
informáticos, en una pirámide ascendente de lo más básico a lo más complejo:

● Bits. Cada entrada del lenguaje de código binario, es decir, 1 o 0.


● Caracteres. Números, letras o caracteres especiales, formados cada uno a partir de una
combinación de bits. Por ejemplo: el número decimal 99 corresponde a 1100011 en binario.
● Campos. Conjunto ordenado de caracteres, por ejemplo una palabra, como el nombre y/o
el apellido del usuario que llena un formulario en línea.
● Registros. Conjuntos de campos ordenados, como los necesarios para iniciar sesión en
nuestro correo electrónico.
● Archivos. Conjuntos ordenados de registros, como las cookies que las páginas web
guardan en nuestro sistema y contienen la información de las sesiones que hemos
iniciado.

Información (en informática)


En informática se entiende por información al conjunto de datos ordenados, secuenciados,
procesados por un algoritmo de programación, que permiten recomponer un referente, como un
hecho concreto o algún sentido real.

La recuperación de la información a partir de los paquetes o conjuntos de datos es, así, el objetivo
final de la computación, dado que los sistemas informáticos codifican y representan la información
a través de distintos mecanismos y lenguajes que les permiten comunicarse entre sí de manera
veloz y eficiente.

¿Qué es un algoritmo?

En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al cual


pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o
decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un
problema o tomar una decisión.

Los algoritmos no tienen que ver con los lenguajes de programación, dado que un mismo algoritmo
o diagrama de flujo puede representarse en diversos lenguajes de programación, es decir, se trata
de un ordenamiento previo a la programación.

Visto así, un programa no es otra cosa que una serie compleja de algoritmos ordenados y
codificados mediante un lenguaje de programación para su posterior ejecución en un computador.

Los algoritmos también son frecuentes en la matemática y la lógica, y son la base de la fabricación
de manuales de usuario, folletos de instrucciones, etc. Su nombre proviene del latín algoritmus y
este apellido del matemático persa Al-Juarismi. Uno de los algoritmos más conocidos de la
matemática es el atribuido a Euclides, para obtener el máximo común divisor de dos enteros
positivos, o el llamado “método de Gauss” para resolver sistemas de ecuaciones lineales.

Todo algoritmo debe constar de las siguientes partes:

● Input o entrada. El ingreso de los datos que el algoritmo necesita para operar.
● Proceso. Se trata de la operación lógica formal que el algoritmo emprenderá con lo recibido
del input.
● Output o salida. Los resultados obtenidos del proceso sobre el input, una vez terminada la
ejecución del algoritmo.

¿Para qué sirve un algoritmo?

Dicho muy llanamente, un algoritmo sirve para resolver paso a paso un problema. Se trata de una
serie de instrucciones ordenadas y secuenciadas para guiar un proceso determinado.

En las Ciencias de la computación, no obstante, los algoritmos constituyen el esqueleto de los


procesos “pseudocódigo o lenguaje de descripción” que luego se codificarán y programarán para
que sean realizados por el computador.

Tipos de algoritmos. Existen cuatro tipos de algoritmos en informática:

● Algoritmos computacionales. Un algoritmo cuya resolución depende del cálculo, y que


puede ser desarrollado por una calculadora o computadora sin dificultades.
● Algoritmos no computacionales. Aquellos que no requieren de los procesos de un
computador para resolverse, o cuyos pasos son exclusivos para la resolución por parte de
un ser humano.
● Algoritmos cualitativos. Se trata de un algoritmo en cuya resolución no intervienen cálculos
numéricos, sino secuencias lógicas y/o formales.
● Algoritmos cuantitativos. Todo lo contrario, es un algoritmo que depende de cálculos
matemáticos para dar con su resolución “el resultado debe ser un numero”.
Características de los algoritmos

Un algoritmo debe ofrecer un resultado en base a sus funciones.

Los algoritmos presentan las siguientes características:

● Secuenciales. Los algoritmos operan en secuencia, debe procesarse uno a la vez.


● Precisos. Los algoritmos han de ser precisos en su abordaje del tema, es decir, no pueden
ser ambiguos o subjetivos.
● Ordenados. Los algoritmos se deben establecer en la secuencia precisa y exacta para que
su lectura tenga sentido y se resuelva el problema.
● Finitos. Toda secuencia de algoritmos ha de tener un fin determinado, no puede
prolongarse hasta el infinito.
● Concretos. Todo algoritmo debe ofrecer un resultado en base a las funciones que cumple.
● Definidos. Un mismo algoritmo ante los mismos elementos de entrada (input) debe dar
siempre los mismos resultados.

En la imagen se puede apreciar un algoritmo y su representación en un diagrama de flujo.

ACTIVIDAD

1- Consulte y escriba en su cuaderno el significado de cada uno de los 30 términos resaltados


en amarillo, recuerde ampliar la información de la guía.

También podría gustarte