Búsqueda por año y curso

Entrada destacada

URGENTE! - INFORMACIÓN DE ADMINISTRACIÓN

Queridas familias: Les recordamos que para desarrollar las diversas actividades escolares, los alumnos deberán contar con un seguro de Respo...

lunes, 1 de junio de 2020

TIC - 3A Y 3B


En esta parte del año vamos a estar viendo una serie de conceptos importantes que deben saber para encarar lo que se viene.
Lean el siguiente apunte y anoten en su carpeta los conceptos.

  1. ¿Qué es un dato?

En informática, los datos son representaciones simbólicas (vale decir: numéricas, alfabéticas, algorítmicas, etc.) de una determinada variable: la descripción codificada de un hecho empírico, un suceso, una entidad.

Los datos son, así, la información (valores o referentes) que recibe el computador a través de distintos medios, y que es manipulada mediante el procesamiento de los algoritmos de programación. Su contenido puede ser prácticamente cualquiera: estadísticas, números, descriptores, que por separado no tienen relevancia para los usuarios del sistema, pero que en conjunto pueden ser interpretados para obtener una información completa y específica.
En los lenguajes de programación, empleados para crear y organizar los algoritmos que todo sistema informático o computacional persigue, los datos son la expresión de las características puntuales de las entidades sobre las cuales operan dichos algoritmos. Es decir, son el input inicial, a partir del cual puede procesarse y componerse la información.
Son particularmente importantes para la estructura de datos, rama de la computación que estudia la forma particular de almacenaje de la información en porciones mínimas para lograr una posterior recuperación eficiente.

  1. Tipos de datos

En la informática, cuando hablamos de tipos de datos (o simplemente “tipo”) nos referimos a un atributo que se indica al computador respecto a la naturaleza de los datos que se dispone a procesar. Esto incluye delimitar o restringir los datos, definir los valores que pueden tomar, qué operaciones se puede realizar con ellos, etc.
Algunos tipos de datos son:
  • Caracteres. Dígitos individuales que se pueden representar mediante datos numéricos (0-9), letras (a-z) u otros símbolos.
  • Caracteres unicode. Unicode es un estándar de codificación que permite representar más eficazmente los datos, permitiendo así hasta 65535 caracteres diferentes.
  • Numéricos. Pueden ser números reales o enteros, dependiendo de lo necesario.
  • Booleanos. Representan valores lógicos (verdadero o falso).
  1. Ejemplos de datos

Algunos ejemplos de datos informáticos pueden ser los que componen la jerarquía de los datos informáticos, en una pirámide ascendente de lo más básico a lo más complejo:
  • Bits. Cada entrada del lenguaje de código binario, es decir, 1 o 0.
  • Caracteres. Números, letras o caracteres especiales, formados cada uno a partir de una combinación de bits. Por ejemplo: el número decimal 99 corresponde a 1100011 en binario.
  • CamposConjunto ordenado de caracteres, por ejemplo una palabra, como el nombre y/o el apellido del usuario que llena un formulario en línea.
  • Registros. Conjuntos de campos ordenados, como los necesarios para iniciar sesión en nuestro correo electrónico.
  • Archivos. Conjuntos ordenados de registros, como las cookies que las páginas web guardan en nuestro sistema y contienen la información de las sesiones que hemos iniciado.
  1. Información (en informática)

En informática se entiende por información al conjunto de datos ordenados, secuenciados, procesados por un algoritmo de programación, que permiten recomponer un referente, como un hecho concreto o algún sentido real.
La recuperación de la información a partir de los paquetes o conjuntos de datos es, así, el objetivo final de la computación, dado que los sistemas informáticos codifican y representan la información a través de distintos mecanismos y lenguajes que les permiten comunicarse entre sí de manera veloz y eficiente.

¿Qué es programación?

La programación hace referencia al efecto de programar, es decir, de organizar una secuencia de pasos ordenados a seguir para hacer cierta cosa. Este término puede utilizarse en muchos contextos, por ejemplo: “Vamos a programar una salida para este fin 
de semana largo” o “La programación de ese canal de televisión está bien lograda”.

Es común hablar de programación de por ejemplo: una salida, de las vacaciones o de un recorrido por una ciudad cuando queremos referirnos a armar itinerarios de lugares para recorrer, conocer o gente con la que encontrarnos; así también se utiliza mucho el término para referirse a la lista de programas con sus días y horarios de emisión de los canales de televisión, la lista de películas de un cine o las obras de un teatro.

Programación en informática


La programación informática permite trabajar el software de los equipos de computación.
En el ámbito de la informática, la programación refiere a la acción de crear programas o aplicaciones, a través del desarrollo de un código fuente, el cual se basa en el conjunto de instrucciones que sigue el ordenador para ejecutar un programa.
Estas instrucciones se encuentran escritas en lenguaje de programación que luego son traducidas a un lenguaje de máquina, que puede ser interpretado y ejecutado por el hardware del equipo (parte física del equipo). Dicho código fuente es creado, diseñado, codificado, mantenido y depurado a través de la programación, donde el principal objetivo a lograr es el desarrollo de sistemas que sean eficaces, accesibles y agradables o amigables para el usuario.
Los programas informáticos suelen seguir algoritmos, que son el conjunto de instrucciones que se encuentran organizadas y relacionadas entre sí de cierta manera y que permiten llegar a la solución de un problema, y que a su vez contienen módulos más pequeños que le aportan detalles más finos. Todo esto a escala de gran complejidad forma parte de la programación informática que permite trabajar al software de los equipos de computación y la cual suele ser llevada a cabo por técnicos o ingenieros en sistemas.
En los comienzos del desarrollo de la programación informática, se utilizaban lenguajes máquina muy básicos y limitados como el sistema binario (uso de los números 0 y 1 en distintas combinaciones); más tarde comenzaron a surgir lenguajes que hacían uso de códigos de palabras, y luego, conjuntos de algoritmos mucho más complejos que se denominaron lenguajes de alto nivel.