sábado, 12 de septiembre de 2020

Base de Datos

 

Base de Datos I

 6to Informática

Profesora: Gladis Lauritto

 

Tema: Estructura de Datos: Archivos

Actividades

1- Lee el texto

2-Copia texto en carpeta

 

Estructura de Datos: Archivos

Archivo: Concepto

Para poder acceder a determinada información en cualquier momento, se necesitará que ella esté depositada en soportes físicos los cuales la almacenan en forma permanente. Este es el caso de la memoria externa o auxiliar como ser disquete, disco duro, cinta magnética, etc.-, en las cuales sin necesidad de estar conectadas a la corriente eléctrica, la información permanece allí. La forma de guardar los datos en estos dispositivos auxiliares es mediante unas estructuras llamadas archivos o ficheros.

·         ARCHIVOS DE DATOS

·         ARCHIVOS DE PROGRAMA

 

Archivos – Estructura de Datos

Objetivos (entre otros...)

• Almacenamiento permanente

 • Manipulación de un gran numero de datos

 • Independencia de los programas

 • Residentes en soportes externos

 Estructura

Archivos = Colección de Registros

Registros = Colección de campos (tamaño, longitud,...) 

Clave---> Un campo que identifica al registro

 

Tipos de Registros

Registro Físico: Cantidad de datos que puede transferirse en una operación de I / O através del buffer.

Registro Lógico: Definido por el programador.

Factor de Bloqueo: Numero de Registros Lógicos que puede contener un Registro Físico

Estructura de Datos: Archivos

Campo es un conjunto de caracteres capaz de suministrar una determinada información referida a un concepto. Al igual que en las variables, al definir un campo hay que indicar claramente sus tres características:

Nombre: identifica a ese conjunto de caracteres

Tipo: Tipo de caracteres que puede contener (alfabético, entero, etc.-)

Tamaño: Cantidad de caracteres que puede contener Por ejemplo, si tenemos que definir al campo número de documento resultaría:

•Nombre: documento

•Tipo: numérico

•Tamaño: 8 enteros

Un campo es la entidad lógica más pequeña, consiste en un conjunto de byte que conforman un dato. Un campo es la unidad mínima de información de un registro.

Estructura de Datos: Archivos

 Registro es un conjunto de campos referentes a una entidad en particular y constituyen una unidad para su proceso. Un ejemplo de un registro puede ser la información de un determinado alumno universitario, que contiene los campos: libreta universitaria, apellido y nombre, número de documento, domicilio, fecha de nacimiento, entre otros campos.

Libreta universitaria -Apellido y nombre -Número de documento- Domicilio -Fecha de nacimiento.

Clasificación según su función

• Maestros: Datos permanentes o históricos.

 • De Movimientos: Auxiliares. Contienen registros necesarios para realizar actualizaciones a los archivos permanentes.

• De Maniobras: Efímeros y auxiliares. Contienen información de registros seccionados o semielaborados.

• De informes: Contienen datos para ser presentados a los usuarios.

Seguridad Informática

 

Seguridad Informática

Profesora: Gladis Lauritto

Curso: 6° Informática

Tema: Malware. Definición y generalidades

Actividades.

1.    Leer texto

2.    Realizar síntesis del mismo

3.    Investigar en Internet : distintos tipos de Malware

 

 

Qué es Malware:

Malware es un acrónimo del inglés demalicious software, traducido al español como código malicioso. Losmalwares son programas diseñados para infiltrarse en un sistema con el fin de dañar o robar datos e información.

Se llama malware a todos los programas que ejecutan acciones no deseadas en un sistema informático y es una de las principales preocupaciones del campo de la seguridad informática.

Tipos de malwares

Dentro de los malwares, podemos encontrar, por ejemplo:

·         Virus: pueden eliminar ficheros, directorios y datos sin autorización.

·         Spyware: colecta datos del usuario sin su permiso, desde mensajes de correos electrónicos hasta números de tarjetas de crédito.

·         Gusanos: se alojan en un sistema creando copias infinitas de sí mismos, con la finalidad de colapsar la red o el dispositivo bloqueando cualquier trabajo adicional.

·         Caballos de troya o troyanos: al ser activados o abiertos, permite el acceso no autorizado a datos en el computador o sistema informático infectado.

·         Bots maliciosos: diseñados para ejecutar acciones no deseadas por el usuario.

·         Adware: programas diseñados para invadir sistemas con publicidad no deseada.

Vea también:

·         Bots.

·         Delitos informáticos.

·         Seguridad informática.

Cómo eliminar o prevenir malwares

La forma más efectiva de prevenir malwares es la instalación de programas que los detecten como, por ejemplo, antivirus, anti-malwares o anti-spywares, que puedan escanear el computador regularmente, prevenir ataques y mantener una protección actualizada.

Vea también Antivirus.

Síntomas de infección por malwares

Algunos de los síntomas que el computador puede presentar al ser infectado con malwares son:

·         Procesamiento lento

·         Ejecuta procesos desconocidos

·         Interrumpe su conexión a Internet

·         Aparecen ventanas con mensajes de advertencia

·         Se comporta de manera extraña

Formas de contagio de malwares

·         Abrir archivos desconocidos enviados por correo electrónico,

·         Navegar por Internet sin actualizar los programas de antivirus o anti-malwares,

·         Navegar en redes poco seguras,

·         Descargar programas y softwares de fuentes desconocidas,

·         Abrir archivos con extensiones desconocidas.

 

lunes, 10 de agosto de 2020

Hardware III - Control de Congestión

 Asignatura: Hardware III

Curso: 6° Informática

Profesora: Evangelina Rivero - e-mail: evange_rivero@hotmail.com

Control de Congestión

Actividades

2) Leer el texto que se está a continuación.
3) Realizar un breve resumen.
4) Pasar el trabajo al correo electrónico

Control de Congestión de TCP: esquema básico y algoritmo TCP CUBIC

El control de congestión de TCP es parte fundamental de este protocolo y con los años ha experimentando un proceso de mejora constante a través de la generación de diferentes versiones, como TCP Tahoe, Reno, Vegas, etc.

Es interesante el caso de la versión TCP CUBIC, la cual desde hace algunos años es el control de congestión que aplican por defecto los sistemas Linux/Unix.

TCP CUBIC se hace más interesante aún ya que Microsoft ha decidido que esta versión sea parte fundamental de productos como Windows 10 y Windows Server 2019, tal como se lee en este documento sobre las novedades de Windows Server 2019 y en este sobre Windows 10.

El hecho de tener una misma distribución en los entornos Linux y Windows ha llevado a los administradores de red a repasar la idea tras el control de congestión que plantea TCP y lo que implica TCP CUBIC.

Justo para apoyarlos en esta tarea es que redactamos este artículo. Comencemos por repasar la idea fundamental del control de congestión de TCP.

Manejo de ventanas como base para el control de congestión

TCP introduce el concepto de “ventanas” para lograr establecer un control de flujo de tráfico y gestionar las conexiones entre dos dispositivos: un emisor y un receptor.

Así pues, la implementación básica se conoce como ventana deslizante o rwnd (receive window), en la que, por conexión, se establece un tamaño de ventana que representa la cantidad de paquetes que el emisor puede enviar al receptor sin esperar los paquetes de reconocimiento (paquetes ACKs).

Ahora bien, el protocolo de ventana deslizante gestiona la conexión en función de las capacidades de buffer del equipo receptor, pero no reconoce los problemas de congestión asociados con la red.

Para lograr adecuar la transmisión dependiendo del nivel de congestión, TCP introduce otra ventana. Se trata de la ventana de congestión o cwnd con la cual pretende regular la cantidad de paquetes enviados en función de la percepción que tiene TCP de la congestión.

Ahora bien, ¿cómo percibe TCP la congestión en la red y qué hace en consecuencia?

La idea básica es la siguiente:

  1. Si hay paquetes perdidos se asume que hay congestión en la red, y la pérdida de paquetes se evalúa en función de los paquetes de reconocimiento recibidos y no recibidos.
  2. Si se determina que existe congestión se modifica la ventana de congestión de forma que el emisor ralentice el envío de sus paquetes.
  3. Si se determina que no hay congestión se modificará la ventana de congestión de forma que el emisor pueda enviar más paquetes.

Sobre este procedimiento básico encontramos múltiples algoritmos que lo implementan.

Los algoritmos proponen cosas como cuántos paquetes ACK no recibidos implican congestión, en cuánto disminuir o incrementar la ventana cwnd, cómo calcular el ratio de transferencia a partir de la ventana de congestión, etc.

A continuación les sugerimos repasar la evolución de estos algoritmos de manera de tener claro el alcance de aquellos que se utilizan actualmente.

Evolución de los algoritmos de control de congestión

La evolución del control de congestión de TCP comienza a mediados de los años 80.

Hasta ese momento el control de flujo de transmisión basado en ventanas deslizantes había funcionado bastante bien, pero con la popularización de Internet la congestión pasó a ser un problema.

Entre 1986 y 1988, Van Jacobson propuso el esquema básico de control de congestión y desarrolló el primer protocolo de implementación, que se conoce como TCP Tahoe.

Aquí se propone que el ratio de transmisión debe considerar el valor de las ventanas de recepción y de congestión, quedando el emisor restringido a un ratio de transmisión cuyo valor mínimo es rwnd y su máximo es cwnd.

En 1990 con TCP Reno se introdujo la aplicación del algoritmo AIMD (additive increase / multiplicative decrease) según el cual:

  1. Se incrementará de forma paulatina el ratio de transmisión hasta que alguna pérdida de paquetes ocurra.
  2. El incremento se hará aumentando de forma lineal la ventana de congestión, es decir, sumando un valor.
  3. En caso de que se infiera congestión, se disminuirá el ratio de transmisión, pero en este caso se hará una disminución multiplicando por un valor.

Luego de TCP Reno aparecieron otros algoritmos y versiones de TCP que procuraban tomar los preceptos del control de congestión y refinarlo, experimentándose una gran diversificación de versiones y alcances.

Así tenemos que TCP Vegas plantea prestar atención a los valores de retardo para inferir congestión o el caso de ECN (Explicit Congestion Notification) que introduce la posibilidad de que los enrutadores de la red notifiquen condiciones de congestión a los equipos emisores.

También se ha promovido el desarrollo de una buena cantidad de mecanismos que permiten la implementación de AIMD, tales como Slow Start, Fast Retransmission, Fast recovery, Adaptive timeout o ACK clocking.

En todo caso, es interesante precisar la situación que teníamos hasta hace poco.

El mundo Linux se había decantado por TCP CUBIC, el cual es un heredero de TCP Reno y BIC TCP, por lo que se basa en pérdida de paquetes y no en valores de retardo para determinar congestión.

En tanto que el mundo Windows utilizaba un algoritmo llamado TCP Compound, que proviene de TCP Fast, el cual a su vez es heredero de TCP Vegas, por lo que se basan en retardos para inferir congestión.

Tal como mencionamos al comienzo de este artículo, esta situación cambió en el momento en el que Microsoft apostó por introducir TCP CUBIC en sus nuevos productos.

TCP CUBIC

TCP CUBIC es un algoritmo de control de congestión que surge con la idea de tomar ventaja del hecho de que actualmente los enlaces de comunicaciones suelen disponer de niveles de ancho de banda cada vez mayores.

En una red compuesta por enlaces de amplios anchos de banda un algoritmo de control de congestión que lentamente incrementa el ratio de transmisión puede terminar por desperdiciar la capacidad los enlaces.

La intención es disponer de un algoritmo que trabaje con ventanas de congestión cuyos procesos de incremento sean más agresivos, pero que se restrinjan de sobrecargar la red.

Para lograr esto se propone que el esquema de incremento y disminución del ratio de transmisión se establezca de acuerdo a una función cúbica. Veamos la siguiente figura:

control de congestion de tcp 1

Descripción: Función cúbica que regula la ventana de congestión según el algoritmo Cubic
Fuente: IEEE Xplore Digital Library:
https://ieeexplore.ieee.org/document/8368259

El procedimiento que sigue el algoritmo es, de forma resumida, el siguiente:

  1. En el momento de experimentar un evento de congestión se registrará el tamaño de la ventana para ese instante como Wmax o el tamaño máximo de ventana.
  2. Se fijará el valor Wmax como el punto de inflexión de la función cúbica que regirá el crecimiento de la ventana de congestión.
  3. Luego se recomenzará la transmisión con un valor de ventana menor y, de no experimentarse congestión, este valor se incrementará según la porción cóncava de la función cúbica.
  4. A medida que la ventana se aproxime al Wmax los incrementos irán ralentizándose.
  5. Una vez alcanzado el punto de inflexión -es decir, Wmax- se seguirá aumentando discretamente el valor de la ventana.
  6. Finalmente, si la red sigue sin experimentar congestión alguna, se seguirá aumentando el tamaño de la ventana según la porción convexa de la función.

Como vemos, CUBIC implementa un esquema de incrementos grandes al principio, los cuales disminuyen alrededor del tamaño de ventana que causó la última congestión, para luego seguir aumentado con incrementos grandes.

Si el lector está interesado en profundizar sobre los detalles técnicos del algoritmo CUBIC puede comenzar por leer el siguiente trabajo: https://www.cs.princeton.edu/courses/archive/fall16/cos561/papers/Cubic08.pdf

El control de congestión y las herramientas de monitorización

Un punto interesante del control de congestión que aporta TCP es que se trata de procesos con las siguientes características:

  1. Estos procesos corren solo en los equipos emisores.
  2. No generan tráfico.
  3. Propician un reparto equitativo de la capacidad de transmisión de la red. Como cada equipo decide sobre su capacidad de transmisión, atendiendo solo al comportamiento de la red que él observa, no se favorece ni perjudica a ningún equipo emisor bajo ninguna circunstancia.

Ahora bien, es fácil entender que no es justo comparar las capacidades de los algoritmos de control de congestión de TCP con las capacidades de una herramienta de monitorización, porque nos estamos moviendo en dos universos completamente distintos.

Sin embargo, les proponemos repensar el alcance de una herramienta de monitorización de propósitos generales como Pandora FMS desde el ángulo de estos algoritmos.

Así surgen los siguientes puntos:

  1. El objeto de estudio de una herramienta de monitorización es mucho más amplio: una herramienta de monitorización debe considerar todos los protocolos presentes en la plataforma, no solo TCP.
  2. La idea de una herramienta de monitorización es incluir bajo su esquema a todos los componentes, ofreciendo siempre una visión global de la plataforma.
  3. Los mecanismos que utiliza una herramienta de monitorización, tales como los asociados con la administración de red como SNMP o con el control de flujo de tráfico como NetFlow, son protocolos que implican el envío de paquetes asociados con sus funciones. Ahora bien, por supuesto las herramientas de monitorización tienen como objetivo establecer esquema que interfiera lo justo con el rendimiento global de la plataforma.
  4. La causa raíz de la congestión: el acercamiento que logran las herramientas de monitorización pretende llegar a la causa raíz de la congestión. Quizás la causa de un estado de congestión esté en la configuración errada de un protocolo de enrutamiento, lo que no se va a corregir con que los equipos emisores modifiquen su capacidad de transmisión.
  5. Para finalizar debemos decir que un objetivo de las herramientas de monitorización es generar información que permita predecir una situación de congestión antes de que aparezca.

Para profundizar en la idea de evaluar cómo podemos utilizar Pandora FMS en cuanto a congestión le recomendamos este interesante artículo sobre monitorización de ancho de banda.

Además, si el lector aún no dispone de una herramienta de monitorización para su plataforma, debe saber que ha llegado al sitio correcto. De hecho, si tiene más de 100 equipos le sugerimos evaluar Pandora FMS Enterprise.

Sistemas Operativos III - Concepto y uso de RAID de discos.

 

Asignatura: Sistema Operativos III


Curso: 6° Informática


Profesora: Evangelina Rivero -  e-mail: evange_rivero@hotmail.com

Concepto y uso de RAID de discos. 

Actividades:
1) Ver el siguiente vídeo: https://www.youtube.com/watch?v=MevfA-Of6NU
2) Del vídeo extraer los conceptos principales.
3) Leer el material que se presenta a continuación.
4) Realizar una red conceptual
5) Enviar el trabajo al correo electrónico

En el mundo de la informática, y más concretamente en el del hardware, el término RAID de discos duros es bastante frecuente, pero no todo el mundo sabe qué es exactamente. A continuación te vamos a explicar qué es un RAID de discos duros, en qué consiste y para qué se utiliza.

RAID es un acrónimo del inglés que significa Redundant Array of Independent Disks, literalmente «matriz de discos independientes redundantes», aunque no todos los sistemas RAID proporcionan redundancia.

La finalidad de un sistema RAID de discos es la de proteger los datos en caso de que un disco duro falle, o en algunos casos tiene como función principal mejorar la velocidad de lectura de varios discos que conforman un único volumen.

En otras palabras, consiste en crear un único volumen con varios discos duros funcionando en conjunto, y con este conjunto se puede conseguir redundancia (tolerancia a fallos en el caso de que uno falle, conocido como disk mirroring) o mayor velocidad (conocido como disk striping), haciendo que ese conjunto sea en realidad un tándem.

Discos duros apilados

Cómo funciona un RAID de discos duros

Un sistema RAID funciona emplazando los datos en varios discos duros, y permitiendo que las operaciones de entrada y salida (I/O) funcionen de manera balanceada, mejorando el rendimiento. En otras palabras, o bien los datos se escriben en ambos discos al mismo tiempo, o bien se escribe un dato en uno, y otro dato en otro para repartir el trabajo. Los sistemas RAID se presentan en el sistema operativo como si fueran un único disco lógico, dado que consisten en un solo volumen.

Para que un sistema RAID funcione es necesaria la presencia de una controladora RAID, y puede ser o bien por hardware o bien por software. A día de hoy, la gran mayoría de PCs de usuario ya cuentan con una controladora RAID por software integrada en la BIOS de la placa base, y de hecho las controladoras por hardware tan solo se usan en entornos empresariales a día de hoy.

¿Qué tipos de RAID hay?

Hay muchos tipos de RAID, aunque la mayoría de ellos están ya en desuso por su poca o nula utilidad con respecto a otros, así que os vamos a definir los más comunes.

RAID 0

Este tipo de RAID supone el concepto principal que proporciona mayor velocidad al sistema. La información se va escribiendo en dos discos de manera alterna, es decir, un bit en uno, y otro bit en otro, de manera que el ancho de banda es literalmente el doble y por eso se mejora notablemente el rendimiento en este modo. Además, se duplica la capacidad del volumen, es decir, si usamos dos discos duros de 1 TB cada uno, tendríamos un volumen de 2 TB.

La contrapartida de este tipo de RAID es que si fallara alguno de los dos discos duros, la información de los dos se echaría a perder puesto que se encontraría repartida entre los dos.

RAID0 de discos duros

RAID 1

Este es el otro tipo básico de RAID, y supone el concepto principal de redundancia. En este modo, los datos se escriben en los dos discos de manera simultánea, siendo el uno una copia exacta del otro, motivo por el que se conoce a este modo como «mirroring». En este caso, si se estropeara uno de los dos discos no pasaría nada porque los datos estarían todavía en el otro, y bastaría con reemplazar el disco estropeado por uno nuevo para volver a restablecer el RAID 1.

La parte mala de este modo de RAID es que no se gana ningún rendimiento, más bien al contrario porque todos los datos deben escribirse dos veces. Además, el tamaño del volumen será el del disco de menor capacidad. Es decir, si usáramos un disco de 1 TB y otro de 500 GB, tendríamos un volumen de 500 GB en RAID 1.

Diagrama RAID1

RAID 5

Este es el modo más utilizado en la actualidad, puesto que permite tener casi cualquier número de discos duros en el RAID (con un mínimo de tres) y solo uno de los discos será utilizado como «backup», es decir, que solo se desperdiciará la capacidad de uno de ellos.

En RAID 5 se incrementa el rendimiento de lectura del volumen, multiplicando éste por tantos discos como conformen el RAID menos uno. Es decir, si tuviéramos 5 discos duros en RAID 5, la velocidad se multiplicaría por 4. Además, tendríamos tolerancia a fallos de un disco: si falla un disco, no se pierde nada, se cambia el disco y listo.

La parte mala de este sistema RAID de discos duros es que si fallaran dos discos, sí que tendríamos pérdida de datos. Además, lógicamente como el mínimo son 3 discos, necesitaremos una mayor inversión inicial para hacerlo.

Diagrama RAID5

RAID 1+0 y otros tipos de RAID

Hay otros tipos de RAID, pero casi todos son una combinación de los anteriores. Por ejemplo, un sistema RAID 1+0 consiste en hacer primero dos RAID 1 y luego un RAID 0 entre ellos, teniendo así en total 4 discos duros con 2 discos de tolerancia a fallos (uno por cada RAID 1), y en RAID 0 para una mayor velocidad.

Diagrama RAID 1+0

La verdad es que teniendo el RAID 5, este tipo de sistemas RAID ya no se utilizan prácticamente para nada, porque se desperdician más discos, se tiene menos tolerancia y menos velocidad.

El único que sí se utiliza más, aunque solo en entornos empresariales, es el modo RAID 6. Es una variante del RAID 5 pero que emplea dos discos como backup en lugar de uno, y por lo tanto la velocidad es de n-2, siendo n el total de discos del conjunto. Es un RAID 5 pero un poco más seguro, con mayor gasto en inversión inicial.

Redes - Denominación del servidor. Asignación del número interno de la red

 

Asignatura: Redes


Curso: 6° Informática 


Profesora: Evangelina Rivero - e-mail: evange_rivero@hotmail.com  

Denominación del servidor. Asignación del número interno de la red


Actividades
1) Veremos una serie de vídeos que nos ayudaran a configurar una red: https://www.youtube.com/watch?v=ZcBZLEChXPI  y https://www.youtube.com/watch?v=2gZV52Pd1wQ
2) Tomar apuntes de los vídeos
3) Leer el texto y realizar una red conceptual usando el material aportado por los vídeos y el texto.
4) Enviar las actividades al correo electrónico



El servidor DNS y la resolución de nombres en Internet

Cuando se quiere acceder a una página web en Internet se necesita la dirección IP del servidor donde está almacenada, pero, por regla general, el usuario solo conoce el nombre del dominio. La razón no es otra que la dificultad de recordar las series numéricas del tipo 93.184.216.34 que las componen, que son las que, precisamente, constituyen la base de la comunicación en Internet. Es por este motivo por el que las direcciones IP se “traducen” en nombres que podamos recordar, los llamados dominios:

Dirección IP: 93.184.216.34

Dominio:www.ejemplo.es

El proceso de traducción de los nombres de dominio en direcciones numéricas que las máquinas puedan entender es lo que se conoce como resolución de nombres, una labor que realiza el Domain Name System, en castellano Sistema de Nombres de Dominio, conocido por sus siglas DNS.

¿Qué es el DNS?

El Sistema de Nombres de Dominio o DNS es un sistema de nomenclatura jerárquico que se ocupa de la administración del espacio de nombres de dominio (Domain Name Space). Su labor primordial consiste en resolver las peticiones de asignación de nombres. Esta función se podría explicar mediante una comparación con un servicio telefónico de información que dispone de datos de contacto actuales y los facilita cuando alguien los solicita. Para ello, el sistema de nombres de dominio recurre a una red global de servidores DNS, que subdividen el espacio de nombres en zonas administradas de forma independiente las unas de las otras. Esto permite la gestión descentralizada de la información de los dominios.

Cada vez que un usuario registra un dominio, se crea una entrada WHOIS en el registro correspondiente y esta queda almacenada en el DNS como un “resource record”. La base de datos de un servidor DNS se convierte, así, en la compilación de todos los registros de la zona del espacio de nombres de dominio que gestiona.

La creación del sistema de nombres de dominio en 1983 sustituyó al procedimiento anterior de resolución, muy propenso a errores y basado en un archivo local de hosts. Este archivo hosts.txt puede encontrarse aún hoy en sistemas basados en UNIX en el directorio etc/ y, en computadores Windows, en %SystemRoot%\system32\drivers\etc.

El archivo hosts.txt requería el mantenimiento manual y una actualización regular, un esfuerzo que, a medida que Internet iba creciendo de forma exponencial, ya no era posible realizar. Hoy, este archivo se usa exclusivamente para la clasificación de direcciones IP en redes locales. También permite bloquear servidores web desviando automáticamente su dirección hacia el alojamiento local (local host).

Peticiones al DNS

Cuando se introduce la dirección de una página web (URL) en el campo de búsqueda del navegador, este realiza una petición al llamado resolver, un componente especial del sistema operativo cuya función consiste en almacenar en caché direcciones IP ya solicitadas anteriormente, y proporcionarlas cuando la aplicación cliente (navegador, programa de correo) la solicita. Si la dirección IP solicitada no se encuentra en el caché del resolver, este redirige la petición al servidor DNS que corresponda, que, en general, se trata del servidor DNS del proveedor de Internet. Aquí se coteja la petición con la base de datos del DNS y, si está disponible, se envía la dirección IP correspondiente como respuesta (“forward lookup”). Esta permite al navegador del usuario dirigirse al servidor web deseado en Internet. Otra vía alternativa consiste en el camino inverso, es decir, en traducir la dirección IP en la dirección de dominio (“reverse lookup”).

Si un servidor DNS no puede responder a una petición con la información de que dispone en su base de datos, puede solicitar la información a otro servidor o reenviar la petición al servidor DNS que corresponda. Esta resolución se puede realizar de dos formas:

Resolución recursiva: es la que se produce cuando el servidor DNS no puede responder por sí mismo a una petición y toma la información de otro servidor. El resolver transfiere la petición completa a su servidor DNS, que proporciona a su vez la respuesta al resolver con el nombre de dominio, si se ha resuelto.
Resolución iterativa: cuando el servidor DNS no puede resolver la petición, envía como respuesta la dirección del siguiente servidor DNS de la jerarquía. El resolver tiene que enviar él mismo una nueva petición y repetir la maniobra hasta que se resuelve el nombre de dominio.

La administración centralizada de la información de los dominios en el DNS se caracteriza por un índice elevado de fiabilidad y flexibilidad. Si la dirección IP de un servidor cambia, el usuario no suele percibir nada, ya que la dirección IP actual para el dominio correspondiente se guarda en la base de datos.

¿Qué es un servidor DNS?

Un servidor DNS, también conocido como servidor de nombres, consiste en un software para servidores que recurre a la base de datos de un DNS para responder a las peticiones que guardan relación con el espacio de nombres de dominio. Como, por regla general, se alojan en hosts dedicados, también se denominan así a los ordenadores que albergan estos programas. Suele hacerse una diferenciación entre servidores DNS primarios y secundarios:

Servidor primario, principal o maestro: se denomina a un servidor DNS primario o maestro cuando guarda la información sobre una zona determinada del espacio de nombres de dominio en su propia base de datos.  El sistema de nombres de dominio está construido de tal forma que cada zona disponga de, al menos, un servidor de nombres primario. Un sistema de este tipo suele ser implementado como clúster de servidores donde se almacenan los datos de zona idénticos en un sistema maestro y en varios esclavos, aumentando, gracias a esta redundancia, la seguridad ante caídas y la disponibilidad de un servidor maestro. De aquí procede la denominación de servidores primarios y secundarios que se ha usado.
Servidor secundario o esclavo: cuando la información de un servidor de nombres no procede de los archivos de zona propios, sino que son de segunda o de tercera mano, este servidor se convierte en secundario o esclavo para esta información. Esta situación se produce cuando un servidor no puede resolver una petición con su propia base de datos y ha de recurrir a la información disponible en otro servidor de nombres (resolución recursiva). Estos datos del DNS se guardan de forma temporal en un almacenamiento local (caching) y se proporcionan en caso de peticiones futuras. Como es posible que las entradas en el propio archivo de zona hayan cambiado en el ínterin, la información proporcionada por servidores secundarios no se considera segura.

Notificación de errores del DNS

A veces se recibe la notificación de error “El servidor DNS no responde” cuando hay problemas de conexión. Esto sucede cuando la conexión con Internet no funciona y no es posible acceder a una página web.  En este artículo te ayudamos a determinar las posibles causas de este molesto problema y proponemos posibles formas de solucionarlos.


Aplicaciones I - Planillas de Cálculo

  Asignatura: Aplicaciones I Curso: 4° Informática Profesora: Evangelina Rivero - e-mail:evange_rivero@hotmail.com Tema: Planillas de Cálcul...