lunes, 10 de agosto de 2020

Hardware III - Control de Congestión

 Asignatura: Hardware III

Curso: 6° Informática

Profesora: Evangelina Rivero - e-mail: evange_rivero@hotmail.com

Control de Congestión

Actividades

2) Leer el texto que se está a continuación.
3) Realizar un breve resumen.
4) Pasar el trabajo al correo electrónico

Control de Congestión de TCP: esquema básico y algoritmo TCP CUBIC

El control de congestión de TCP es parte fundamental de este protocolo y con los años ha experimentando un proceso de mejora constante a través de la generación de diferentes versiones, como TCP Tahoe, Reno, Vegas, etc.

Es interesante el caso de la versión TCP CUBIC, la cual desde hace algunos años es el control de congestión que aplican por defecto los sistemas Linux/Unix.

TCP CUBIC se hace más interesante aún ya que Microsoft ha decidido que esta versión sea parte fundamental de productos como Windows 10 y Windows Server 2019, tal como se lee en este documento sobre las novedades de Windows Server 2019 y en este sobre Windows 10.

El hecho de tener una misma distribución en los entornos Linux y Windows ha llevado a los administradores de red a repasar la idea tras el control de congestión que plantea TCP y lo que implica TCP CUBIC.

Justo para apoyarlos en esta tarea es que redactamos este artículo. Comencemos por repasar la idea fundamental del control de congestión de TCP.

Manejo de ventanas como base para el control de congestión

TCP introduce el concepto de “ventanas” para lograr establecer un control de flujo de tráfico y gestionar las conexiones entre dos dispositivos: un emisor y un receptor.

Así pues, la implementación básica se conoce como ventana deslizante o rwnd (receive window), en la que, por conexión, se establece un tamaño de ventana que representa la cantidad de paquetes que el emisor puede enviar al receptor sin esperar los paquetes de reconocimiento (paquetes ACKs).

Ahora bien, el protocolo de ventana deslizante gestiona la conexión en función de las capacidades de buffer del equipo receptor, pero no reconoce los problemas de congestión asociados con la red.

Para lograr adecuar la transmisión dependiendo del nivel de congestión, TCP introduce otra ventana. Se trata de la ventana de congestión o cwnd con la cual pretende regular la cantidad de paquetes enviados en función de la percepción que tiene TCP de la congestión.

Ahora bien, ¿cómo percibe TCP la congestión en la red y qué hace en consecuencia?

La idea básica es la siguiente:

  1. Si hay paquetes perdidos se asume que hay congestión en la red, y la pérdida de paquetes se evalúa en función de los paquetes de reconocimiento recibidos y no recibidos.
  2. Si se determina que existe congestión se modifica la ventana de congestión de forma que el emisor ralentice el envío de sus paquetes.
  3. Si se determina que no hay congestión se modificará la ventana de congestión de forma que el emisor pueda enviar más paquetes.

Sobre este procedimiento básico encontramos múltiples algoritmos que lo implementan.

Los algoritmos proponen cosas como cuántos paquetes ACK no recibidos implican congestión, en cuánto disminuir o incrementar la ventana cwnd, cómo calcular el ratio de transferencia a partir de la ventana de congestión, etc.

A continuación les sugerimos repasar la evolución de estos algoritmos de manera de tener claro el alcance de aquellos que se utilizan actualmente.

Evolución de los algoritmos de control de congestión

La evolución del control de congestión de TCP comienza a mediados de los años 80.

Hasta ese momento el control de flujo de transmisión basado en ventanas deslizantes había funcionado bastante bien, pero con la popularización de Internet la congestión pasó a ser un problema.

Entre 1986 y 1988, Van Jacobson propuso el esquema básico de control de congestión y desarrolló el primer protocolo de implementación, que se conoce como TCP Tahoe.

Aquí se propone que el ratio de transmisión debe considerar el valor de las ventanas de recepción y de congestión, quedando el emisor restringido a un ratio de transmisión cuyo valor mínimo es rwnd y su máximo es cwnd.

En 1990 con TCP Reno se introdujo la aplicación del algoritmo AIMD (additive increase / multiplicative decrease) según el cual:

  1. Se incrementará de forma paulatina el ratio de transmisión hasta que alguna pérdida de paquetes ocurra.
  2. El incremento se hará aumentando de forma lineal la ventana de congestión, es decir, sumando un valor.
  3. En caso de que se infiera congestión, se disminuirá el ratio de transmisión, pero en este caso se hará una disminución multiplicando por un valor.

Luego de TCP Reno aparecieron otros algoritmos y versiones de TCP que procuraban tomar los preceptos del control de congestión y refinarlo, experimentándose una gran diversificación de versiones y alcances.

Así tenemos que TCP Vegas plantea prestar atención a los valores de retardo para inferir congestión o el caso de ECN (Explicit Congestion Notification) que introduce la posibilidad de que los enrutadores de la red notifiquen condiciones de congestión a los equipos emisores.

También se ha promovido el desarrollo de una buena cantidad de mecanismos que permiten la implementación de AIMD, tales como Slow Start, Fast Retransmission, Fast recovery, Adaptive timeout o ACK clocking.

En todo caso, es interesante precisar la situación que teníamos hasta hace poco.

El mundo Linux se había decantado por TCP CUBIC, el cual es un heredero de TCP Reno y BIC TCP, por lo que se basa en pérdida de paquetes y no en valores de retardo para determinar congestión.

En tanto que el mundo Windows utilizaba un algoritmo llamado TCP Compound, que proviene de TCP Fast, el cual a su vez es heredero de TCP Vegas, por lo que se basan en retardos para inferir congestión.

Tal como mencionamos al comienzo de este artículo, esta situación cambió en el momento en el que Microsoft apostó por introducir TCP CUBIC en sus nuevos productos.

TCP CUBIC

TCP CUBIC es un algoritmo de control de congestión que surge con la idea de tomar ventaja del hecho de que actualmente los enlaces de comunicaciones suelen disponer de niveles de ancho de banda cada vez mayores.

En una red compuesta por enlaces de amplios anchos de banda un algoritmo de control de congestión que lentamente incrementa el ratio de transmisión puede terminar por desperdiciar la capacidad los enlaces.

La intención es disponer de un algoritmo que trabaje con ventanas de congestión cuyos procesos de incremento sean más agresivos, pero que se restrinjan de sobrecargar la red.

Para lograr esto se propone que el esquema de incremento y disminución del ratio de transmisión se establezca de acuerdo a una función cúbica. Veamos la siguiente figura:

control de congestion de tcp 1

Descripción: Función cúbica que regula la ventana de congestión según el algoritmo Cubic
Fuente: IEEE Xplore Digital Library:
https://ieeexplore.ieee.org/document/8368259

El procedimiento que sigue el algoritmo es, de forma resumida, el siguiente:

  1. En el momento de experimentar un evento de congestión se registrará el tamaño de la ventana para ese instante como Wmax o el tamaño máximo de ventana.
  2. Se fijará el valor Wmax como el punto de inflexión de la función cúbica que regirá el crecimiento de la ventana de congestión.
  3. Luego se recomenzará la transmisión con un valor de ventana menor y, de no experimentarse congestión, este valor se incrementará según la porción cóncava de la función cúbica.
  4. A medida que la ventana se aproxime al Wmax los incrementos irán ralentizándose.
  5. Una vez alcanzado el punto de inflexión -es decir, Wmax- se seguirá aumentando discretamente el valor de la ventana.
  6. Finalmente, si la red sigue sin experimentar congestión alguna, se seguirá aumentando el tamaño de la ventana según la porción convexa de la función.

Como vemos, CUBIC implementa un esquema de incrementos grandes al principio, los cuales disminuyen alrededor del tamaño de ventana que causó la última congestión, para luego seguir aumentado con incrementos grandes.

Si el lector está interesado en profundizar sobre los detalles técnicos del algoritmo CUBIC puede comenzar por leer el siguiente trabajo: https://www.cs.princeton.edu/courses/archive/fall16/cos561/papers/Cubic08.pdf

El control de congestión y las herramientas de monitorización

Un punto interesante del control de congestión que aporta TCP es que se trata de procesos con las siguientes características:

  1. Estos procesos corren solo en los equipos emisores.
  2. No generan tráfico.
  3. Propician un reparto equitativo de la capacidad de transmisión de la red. Como cada equipo decide sobre su capacidad de transmisión, atendiendo solo al comportamiento de la red que él observa, no se favorece ni perjudica a ningún equipo emisor bajo ninguna circunstancia.

Ahora bien, es fácil entender que no es justo comparar las capacidades de los algoritmos de control de congestión de TCP con las capacidades de una herramienta de monitorización, porque nos estamos moviendo en dos universos completamente distintos.

Sin embargo, les proponemos repensar el alcance de una herramienta de monitorización de propósitos generales como Pandora FMS desde el ángulo de estos algoritmos.

Así surgen los siguientes puntos:

  1. El objeto de estudio de una herramienta de monitorización es mucho más amplio: una herramienta de monitorización debe considerar todos los protocolos presentes en la plataforma, no solo TCP.
  2. La idea de una herramienta de monitorización es incluir bajo su esquema a todos los componentes, ofreciendo siempre una visión global de la plataforma.
  3. Los mecanismos que utiliza una herramienta de monitorización, tales como los asociados con la administración de red como SNMP o con el control de flujo de tráfico como NetFlow, son protocolos que implican el envío de paquetes asociados con sus funciones. Ahora bien, por supuesto las herramientas de monitorización tienen como objetivo establecer esquema que interfiera lo justo con el rendimiento global de la plataforma.
  4. La causa raíz de la congestión: el acercamiento que logran las herramientas de monitorización pretende llegar a la causa raíz de la congestión. Quizás la causa de un estado de congestión esté en la configuración errada de un protocolo de enrutamiento, lo que no se va a corregir con que los equipos emisores modifiquen su capacidad de transmisión.
  5. Para finalizar debemos decir que un objetivo de las herramientas de monitorización es generar información que permita predecir una situación de congestión antes de que aparezca.

Para profundizar en la idea de evaluar cómo podemos utilizar Pandora FMS en cuanto a congestión le recomendamos este interesante artículo sobre monitorización de ancho de banda.

Además, si el lector aún no dispone de una herramienta de monitorización para su plataforma, debe saber que ha llegado al sitio correcto. De hecho, si tiene más de 100 equipos le sugerimos evaluar Pandora FMS Enterprise.

Sistemas Operativos III - Concepto y uso de RAID de discos.

 

Asignatura: Sistema Operativos III


Curso: 6° Informática


Profesora: Evangelina Rivero -  e-mail: evange_rivero@hotmail.com

Concepto y uso de RAID de discos. 

Actividades:
1) Ver el siguiente vídeo: https://www.youtube.com/watch?v=MevfA-Of6NU
2) Del vídeo extraer los conceptos principales.
3) Leer el material que se presenta a continuación.
4) Realizar una red conceptual
5) Enviar el trabajo al correo electrónico

En el mundo de la informática, y más concretamente en el del hardware, el término RAID de discos duros es bastante frecuente, pero no todo el mundo sabe qué es exactamente. A continuación te vamos a explicar qué es un RAID de discos duros, en qué consiste y para qué se utiliza.

RAID es un acrónimo del inglés que significa Redundant Array of Independent Disks, literalmente «matriz de discos independientes redundantes», aunque no todos los sistemas RAID proporcionan redundancia.

La finalidad de un sistema RAID de discos es la de proteger los datos en caso de que un disco duro falle, o en algunos casos tiene como función principal mejorar la velocidad de lectura de varios discos que conforman un único volumen.

En otras palabras, consiste en crear un único volumen con varios discos duros funcionando en conjunto, y con este conjunto se puede conseguir redundancia (tolerancia a fallos en el caso de que uno falle, conocido como disk mirroring) o mayor velocidad (conocido como disk striping), haciendo que ese conjunto sea en realidad un tándem.

Discos duros apilados

Cómo funciona un RAID de discos duros

Un sistema RAID funciona emplazando los datos en varios discos duros, y permitiendo que las operaciones de entrada y salida (I/O) funcionen de manera balanceada, mejorando el rendimiento. En otras palabras, o bien los datos se escriben en ambos discos al mismo tiempo, o bien se escribe un dato en uno, y otro dato en otro para repartir el trabajo. Los sistemas RAID se presentan en el sistema operativo como si fueran un único disco lógico, dado que consisten en un solo volumen.

Para que un sistema RAID funcione es necesaria la presencia de una controladora RAID, y puede ser o bien por hardware o bien por software. A día de hoy, la gran mayoría de PCs de usuario ya cuentan con una controladora RAID por software integrada en la BIOS de la placa base, y de hecho las controladoras por hardware tan solo se usan en entornos empresariales a día de hoy.

¿Qué tipos de RAID hay?

Hay muchos tipos de RAID, aunque la mayoría de ellos están ya en desuso por su poca o nula utilidad con respecto a otros, así que os vamos a definir los más comunes.

RAID 0

Este tipo de RAID supone el concepto principal que proporciona mayor velocidad al sistema. La información se va escribiendo en dos discos de manera alterna, es decir, un bit en uno, y otro bit en otro, de manera que el ancho de banda es literalmente el doble y por eso se mejora notablemente el rendimiento en este modo. Además, se duplica la capacidad del volumen, es decir, si usamos dos discos duros de 1 TB cada uno, tendríamos un volumen de 2 TB.

La contrapartida de este tipo de RAID es que si fallara alguno de los dos discos duros, la información de los dos se echaría a perder puesto que se encontraría repartida entre los dos.

RAID0 de discos duros

RAID 1

Este es el otro tipo básico de RAID, y supone el concepto principal de redundancia. En este modo, los datos se escriben en los dos discos de manera simultánea, siendo el uno una copia exacta del otro, motivo por el que se conoce a este modo como «mirroring». En este caso, si se estropeara uno de los dos discos no pasaría nada porque los datos estarían todavía en el otro, y bastaría con reemplazar el disco estropeado por uno nuevo para volver a restablecer el RAID 1.

La parte mala de este modo de RAID es que no se gana ningún rendimiento, más bien al contrario porque todos los datos deben escribirse dos veces. Además, el tamaño del volumen será el del disco de menor capacidad. Es decir, si usáramos un disco de 1 TB y otro de 500 GB, tendríamos un volumen de 500 GB en RAID 1.

Diagrama RAID1

RAID 5

Este es el modo más utilizado en la actualidad, puesto que permite tener casi cualquier número de discos duros en el RAID (con un mínimo de tres) y solo uno de los discos será utilizado como «backup», es decir, que solo se desperdiciará la capacidad de uno de ellos.

En RAID 5 se incrementa el rendimiento de lectura del volumen, multiplicando éste por tantos discos como conformen el RAID menos uno. Es decir, si tuviéramos 5 discos duros en RAID 5, la velocidad se multiplicaría por 4. Además, tendríamos tolerancia a fallos de un disco: si falla un disco, no se pierde nada, se cambia el disco y listo.

La parte mala de este sistema RAID de discos duros es que si fallaran dos discos, sí que tendríamos pérdida de datos. Además, lógicamente como el mínimo son 3 discos, necesitaremos una mayor inversión inicial para hacerlo.

Diagrama RAID5

RAID 1+0 y otros tipos de RAID

Hay otros tipos de RAID, pero casi todos son una combinación de los anteriores. Por ejemplo, un sistema RAID 1+0 consiste en hacer primero dos RAID 1 y luego un RAID 0 entre ellos, teniendo así en total 4 discos duros con 2 discos de tolerancia a fallos (uno por cada RAID 1), y en RAID 0 para una mayor velocidad.

Diagrama RAID 1+0

La verdad es que teniendo el RAID 5, este tipo de sistemas RAID ya no se utilizan prácticamente para nada, porque se desperdician más discos, se tiene menos tolerancia y menos velocidad.

El único que sí se utiliza más, aunque solo en entornos empresariales, es el modo RAID 6. Es una variante del RAID 5 pero que emplea dos discos como backup en lugar de uno, y por lo tanto la velocidad es de n-2, siendo n el total de discos del conjunto. Es un RAID 5 pero un poco más seguro, con mayor gasto en inversión inicial.

Redes - Denominación del servidor. Asignación del número interno de la red

 

Asignatura: Redes


Curso: 6° Informática 


Profesora: Evangelina Rivero - e-mail: evange_rivero@hotmail.com  

Denominación del servidor. Asignación del número interno de la red


Actividades
1) Veremos una serie de vídeos que nos ayudaran a configurar una red: https://www.youtube.com/watch?v=ZcBZLEChXPI  y https://www.youtube.com/watch?v=2gZV52Pd1wQ
2) Tomar apuntes de los vídeos
3) Leer el texto y realizar una red conceptual usando el material aportado por los vídeos y el texto.
4) Enviar las actividades al correo electrónico



El servidor DNS y la resolución de nombres en Internet

Cuando se quiere acceder a una página web en Internet se necesita la dirección IP del servidor donde está almacenada, pero, por regla general, el usuario solo conoce el nombre del dominio. La razón no es otra que la dificultad de recordar las series numéricas del tipo 93.184.216.34 que las componen, que son las que, precisamente, constituyen la base de la comunicación en Internet. Es por este motivo por el que las direcciones IP se “traducen” en nombres que podamos recordar, los llamados dominios:

Dirección IP: 93.184.216.34

Dominio:www.ejemplo.es

El proceso de traducción de los nombres de dominio en direcciones numéricas que las máquinas puedan entender es lo que se conoce como resolución de nombres, una labor que realiza el Domain Name System, en castellano Sistema de Nombres de Dominio, conocido por sus siglas DNS.

¿Qué es el DNS?

El Sistema de Nombres de Dominio o DNS es un sistema de nomenclatura jerárquico que se ocupa de la administración del espacio de nombres de dominio (Domain Name Space). Su labor primordial consiste en resolver las peticiones de asignación de nombres. Esta función se podría explicar mediante una comparación con un servicio telefónico de información que dispone de datos de contacto actuales y los facilita cuando alguien los solicita. Para ello, el sistema de nombres de dominio recurre a una red global de servidores DNS, que subdividen el espacio de nombres en zonas administradas de forma independiente las unas de las otras. Esto permite la gestión descentralizada de la información de los dominios.

Cada vez que un usuario registra un dominio, se crea una entrada WHOIS en el registro correspondiente y esta queda almacenada en el DNS como un “resource record”. La base de datos de un servidor DNS se convierte, así, en la compilación de todos los registros de la zona del espacio de nombres de dominio que gestiona.

La creación del sistema de nombres de dominio en 1983 sustituyó al procedimiento anterior de resolución, muy propenso a errores y basado en un archivo local de hosts. Este archivo hosts.txt puede encontrarse aún hoy en sistemas basados en UNIX en el directorio etc/ y, en computadores Windows, en %SystemRoot%\system32\drivers\etc.

El archivo hosts.txt requería el mantenimiento manual y una actualización regular, un esfuerzo que, a medida que Internet iba creciendo de forma exponencial, ya no era posible realizar. Hoy, este archivo se usa exclusivamente para la clasificación de direcciones IP en redes locales. También permite bloquear servidores web desviando automáticamente su dirección hacia el alojamiento local (local host).

Peticiones al DNS

Cuando se introduce la dirección de una página web (URL) en el campo de búsqueda del navegador, este realiza una petición al llamado resolver, un componente especial del sistema operativo cuya función consiste en almacenar en caché direcciones IP ya solicitadas anteriormente, y proporcionarlas cuando la aplicación cliente (navegador, programa de correo) la solicita. Si la dirección IP solicitada no se encuentra en el caché del resolver, este redirige la petición al servidor DNS que corresponda, que, en general, se trata del servidor DNS del proveedor de Internet. Aquí se coteja la petición con la base de datos del DNS y, si está disponible, se envía la dirección IP correspondiente como respuesta (“forward lookup”). Esta permite al navegador del usuario dirigirse al servidor web deseado en Internet. Otra vía alternativa consiste en el camino inverso, es decir, en traducir la dirección IP en la dirección de dominio (“reverse lookup”).

Si un servidor DNS no puede responder a una petición con la información de que dispone en su base de datos, puede solicitar la información a otro servidor o reenviar la petición al servidor DNS que corresponda. Esta resolución se puede realizar de dos formas:

Resolución recursiva: es la que se produce cuando el servidor DNS no puede responder por sí mismo a una petición y toma la información de otro servidor. El resolver transfiere la petición completa a su servidor DNS, que proporciona a su vez la respuesta al resolver con el nombre de dominio, si se ha resuelto.
Resolución iterativa: cuando el servidor DNS no puede resolver la petición, envía como respuesta la dirección del siguiente servidor DNS de la jerarquía. El resolver tiene que enviar él mismo una nueva petición y repetir la maniobra hasta que se resuelve el nombre de dominio.

La administración centralizada de la información de los dominios en el DNS se caracteriza por un índice elevado de fiabilidad y flexibilidad. Si la dirección IP de un servidor cambia, el usuario no suele percibir nada, ya que la dirección IP actual para el dominio correspondiente se guarda en la base de datos.

¿Qué es un servidor DNS?

Un servidor DNS, también conocido como servidor de nombres, consiste en un software para servidores que recurre a la base de datos de un DNS para responder a las peticiones que guardan relación con el espacio de nombres de dominio. Como, por regla general, se alojan en hosts dedicados, también se denominan así a los ordenadores que albergan estos programas. Suele hacerse una diferenciación entre servidores DNS primarios y secundarios:

Servidor primario, principal o maestro: se denomina a un servidor DNS primario o maestro cuando guarda la información sobre una zona determinada del espacio de nombres de dominio en su propia base de datos.  El sistema de nombres de dominio está construido de tal forma que cada zona disponga de, al menos, un servidor de nombres primario. Un sistema de este tipo suele ser implementado como clúster de servidores donde se almacenan los datos de zona idénticos en un sistema maestro y en varios esclavos, aumentando, gracias a esta redundancia, la seguridad ante caídas y la disponibilidad de un servidor maestro. De aquí procede la denominación de servidores primarios y secundarios que se ha usado.
Servidor secundario o esclavo: cuando la información de un servidor de nombres no procede de los archivos de zona propios, sino que son de segunda o de tercera mano, este servidor se convierte en secundario o esclavo para esta información. Esta situación se produce cuando un servidor no puede resolver una petición con su propia base de datos y ha de recurrir a la información disponible en otro servidor de nombres (resolución recursiva). Estos datos del DNS se guardan de forma temporal en un almacenamiento local (caching) y se proporcionan en caso de peticiones futuras. Como es posible que las entradas en el propio archivo de zona hayan cambiado en el ínterin, la información proporcionada por servidores secundarios no se considera segura.

Notificación de errores del DNS

A veces se recibe la notificación de error “El servidor DNS no responde” cuando hay problemas de conexión. Esto sucede cuando la conexión con Internet no funciona y no es posible acceder a una página web.  En este artículo te ayudamos a determinar las posibles causas de este molesto problema y proponemos posibles formas de solucionarlos.


Programación III - Comandos Básicos de Shell

 

Asignatura: Laboratorio de Programación III

Curso: 6° Informática


Profesora: Evangelina Rivero -  email: evange_rivero@hotmail.com 


Comandos Básicos de Shell (Terminal)

En esta sección se presenta una serie de comandos básicos para trabajar en una shell de Linux.

man

Proporciona información sobre los comandos u otros programas del entorno Linux (manual pages). En el caso particular de los comandos de la shell de Linux, dado que estos suelen tener una gran cantidad de modificadores, lo usual es conocer solo algunas funcionalidades de los comandos más conocidos y recurrir a las manual pages del comando cuando se desee más información.

Por más información, ejecutar:

man man

ls

Lista el contenido de un directorio. Si lo usamos sin argumentos, lista el contenido del directorio actual o corriente.

Por más información:

man ls

more

Filtro que permite desplegar en una terminal el contenido de un archivo de texto de a una pantalla a la vez.

<COMANDO> | more

El comando more tiene dos usos muy importantes:

  • Permite ver el contenido de un archivo:

    more <NOMBRE_ARCHIVO>
    
    
  • Le da formato a la salida de un comando para visualizarlo por páginas. Esto es muy útil cuando el resultado en pantalla de un comando tiene más líneas que la terminal. Por ejemplo:

    ls | more
    

cd

Cambia el directorio corriente (Change Directory) en que nos encontramos posicionados. Si se utiliza sin argumentos, cambia al directorio raíz del homedir del usuario.

Ejemplos:

cd <NOMBRE_DIRECTORIO> Cambia al directorio <NOMBRE_DIRECTORIO>
cd                     Cambia al directorio homedir del usuario.
cd ..                  Cambia al directorio padre del actual.
cd -                   Cambia al directorio previo.

mkdir

Crea entradas de directorios.

mkdir <NOMBRE_DIRECTORIO>

rmdir

Elimina entradas de directorios vacíos. Para eliminar un directorio y todo su contenido, ver el comando rm más adelante.

 rmdir <NOMBRE_DIRECTORIO> 

passwd

Cambia la contraseña del usuario. Las contraseñas deben cumplir las condiciones que se indican en el mismo o en las carteleras.

passwd

rm

Elimina archivos o directorios.

rm <NOMBRE_DE_LOS_ARCHIVOS>

rm -r <NOMBRE_DE_LOS_DIRECTORIOS>

Ejemplos:

rm *.class
rm prueba.txt mi_directorio/prueba2.txt
rm -r mi_directorio

Importante:

Los archivos y directorios eliminados con este comando o el anterior no van a parar a la papelera de reciclaje, serán eliminados permanentemente.

cp

Copiar archivos o directorios. Para copiar un directorio se debe agregar el modificador "-r".

cp <ARCHIVOS_ORIGEN> <DESTINO>

cp -r <DIRECTORIOS_ORIGEN> <DESTINO>

Ejemplos:

cp *.txt mi_dir/mi_dir2
cp prueba.txt mi_directorio/prueba2.txt
cp -r mi_directorio mi_directorio_2

mv

Mueve archivos o directorios. La sintaxis de este comado es similar a la del cp, solo que no es necesario utilizar el modificador "-r".

Este comando es útil a la hora de renombrar archivos o directorios (moviéndolo con el nombre con el que se lo quiere renombrar) dado que la mayoria de las shell de Linux no poseen un comando especifico para esto.

Ejemplos:

mv arch01.txt arch02.inf

du

Reporta el espacio de disco utilizado por archivos y directorios (du = disk usage). Este comando generalmente se utiliza de esta forma:

du -ks <ARCHIVOS_O_DIRECTORIOS>

Con el modificador -k el comando devuelve el resultado en Kilobytes.

Ejemplos:

du -ks .
du -ks mi_directorio/mi_directorio2
du -ks *.java

eject

Extrae el CD-ROM.

mount y umount

Estos dos comandos son necesarios para montar el disquete y el cd-rom y desmontar el disquete.

mount /media/cdrom
mount /media/floppy
mount /media/usbdisk
umount /media/floppy

exit

Cierra la shell actual.

Hardware I - Placa Madre

 

Asignatura: Hardware I


Curso: 4° Informática


Profesora: Evangelina Rivero -  e-mail: evange_rivero@hotmail.com

Placa Madre


Actividades
1) Vamos a ver el siguiente vídeo: https://www.youtube.com/watch?v=hiR4tNxYdak
2) ¿ Qué es la placa madre?
3) ¿Qué funciones tiene?
4) ¿Qué tipos de placas madres hay?
5) ¿Cuáles son las partes de la placa?
6) ¿Cómo puedo saber que placa madre tiene mi pc?
7) Realizar el dibujo de la placa madre con sus componentes en la carpeta


¿Qué es la placa madre?

En computación, la placa madre, placa principal, placa base o tarjeta madre (del inglés: motherboardes la tarjeta de circuito integrado principal del sistema informático, a la que se acoplan los demás componentes que constituyen el computador.

Es, por ende, una parte fundamental del mismo y se encuentra dentro de la carcasa del CPU, en donde presenta salidas al exterior que permiten la conexión de distintos periféricos y aditamentos.

En la placa base se encuentran además elementos indispensables del sistema, como el microprocesador, la memoria RAM, las ranuras de expansión o el circuito integrado auxiliar (chipset). En su interior, igualmente, se halla instalado el firmware del BIOSsoftware de sistema que permite regular y probar las funciones elementales del hardware y hace las veces de soporte para la carga del sistema operativo.

Las tarjetas madre se fabrican en base a dimensiones estándar, conocidas como formatos, para garantizar que quepan dentro de los cascarones del CPU. Dichos formatos han cambiado con el tiempo y las nuevas tecnologías, y su última versión se conoce como DTX (2007). Aun así, muchas empresas prefieren desconocer estos formatos y fabricar sus tarjetas madre a su antojo, en lo que se conoce como “formatos propietarios”.

Existen diversos tipos de placas base, aunque el mercado parece agruparse en torno a todos tendencias: las placas que emplean microprocesadores AMD (Advanced Micro Devices Inc.), o las que emplean microprocesadores Intel (Intel Corporation). Existen también placas multiprocesador, que pueden albergar 2, 4 o más procesadores de manera simultánea, lo cual se traduce en una enorme potencia de procesamiento de datos.

Ver también: Fuente de alimentación

Funciones de la placa madre

placa madre-funciones
Podría decirse que, la placa madre, es el sistema nervioso central del computador.

La placa base es el lugar de integración y contacto entre los diversos componentes del sistema informático.

Se trata del módulo principal y más grande, en donde se distribuyen los datos que surgen del microprocesador y se transmiten las instrucciones tanto a la memoria, los sistemas de almacenamiento de información, o los periféricos.

Podría decirse que es el sistema nervioso central del computador, el lugar en donde sus operaciones mínimas e indispensables se llevan a cabo.

Tipos de placa madre

placa madre
Las placas monoprocesadoras albergan a un único microprocesador instalado a la vez.

Suelen clasificarse las placas base atendiendo a la cantidad de microprocesadores que puedan albergar a la vez. Así, hablaremos de:

  • Placas base monoprocesadoras. Aquellas que están dispuestas para albergar a un único microprocesador instalado a la vez.
  • Placas base multiprocesadoras. Aquellas que, por el contrario, pueden tener instalados varios microprocesadores (2, 4 e incluso 8 a la vez), acumulando así su potencia conjunta.

Partes de la placa madre

placa madre
El chipset administra la transferencia de información.

Los componentes de una tarjeta madre son los siguientes:

  • Conectores de alimentación de energía. Los distintos cables y dispositivos que proveen al conjunto de la placa de los voltajes necesarios para que sus diversas partes operen de modo estable y continuo.
  • Zócalo del CPU. Llamado socket, es el receptáculo del microprocesador (o de varios), que lo conecta con el resto del sistema a través del bus frontal de la tarjeta madre.
  • Ranura de RAM. Las ranuras (slots) de la memoria RAM (Random Acess-Memory, o Memoria de Acceso Aleatorio) sirven para albergar módulos de este tipo de memoria de procesamiento. Suelen estar dispuestas en pares, y poseer ciertas especificaciones que delimitan el tipo de módulos RAM que pueden emplearse en el computador.
  • Chipset. Se trata de una serie de circuitos electrónicos que administran la transferencia de la información entre las diversas partes del computador, como el procesador, la memoria, las unidades de almacenamiento secundario, etc. Se divide generalmente en dos secciones diferentes:
    • Puente norte (northbridge). Interconecta la memoria RAM, el microprocesador y la unidad de procesamiento gráfico.
    • Puente sur (southbridge). Interconecta los periféricos y los dispositivos de almacenamiento secundario, locales o externos.
  • Otros componentes. La placa base también cuenta con otros elementos como el reloj del sistema, la BIOS preprogramada de fábrica, el bus interno o frontal del Chipset (en desuso) y la CMOS, una pequeña forma de memoria para preservar los datos mínimos del equipo, como su configuración, la hora y la fecha.

¿Cómo saber cuál es mi placa madre?

placa madre
La placa madre es la tarjeta más grande en la cual se insertan las demás.

El método más tradicional para averiguar cuál es la placa base de un computador consiste en abrir la carcasa del CPU y simplemente mirar la tarjeta más grande en la cual se insertan todas las demás.

Pero existen métodos más simples y menos invasivos, sobre todo si no somos expertos en la materia y nos asusta poner en riesgo el sistema, o si nuestro computador es un laptop u otro formato de pequeño tamaño que no resultaría sencillo desarmar. Hay dos formas de hacerlo sin recurrir al destornillador:

  • Con Windows 10. Se emplea una herramienta nativa del Sistema Operativo llamada msinfo32. Deberemos presionar Windows + R para abrir el comando ejecutar, escribir “msinfo32” y presionar aceptar. Se abrirá una ventana en la que figurará un “Resumen del sistema”. Bastará con hacer clic en él para acceder a la información que buscamos.
  • Con otras aplicaciones. Existen programas de terceros como CPU-Z que pueden servirnos para investigar en los contenidos de nuestro computador y que a menudo tienen versiones de descarga gratuita. Si deseas más información al respecto, puedes revisar el siguiente link: https://www.xataka.com/basics/como-saber-cual-es-mi-placa-base-y-otros-componentes-de-mi-ordenador-en-windows

Dibujos flechas | angela


Programación I - Diagramación lógica:resolución de problemas

 

Asignatura: Programación I


Curso: 4° Informática


Profesora: Evangelina Rivero - e-mail: evange_rivero@hotmail.com


Diagramación lógica:resolución de problemas

Actividades
1) Vamos a comenzar con los diagramas de flujo, para ello vamos a ver una serie de vídeos de los cuales tomaremos nota de los conceptos más importantes, ya que nos servirán para resolver problemas: https://www.youtube.com/watch?v=qDttSc3RQBc (prestar atención a las diferentes partes para la construcción de un diagrama, ir realizando con el vídeo las actividades); https://www.youtube.com/watch?v=IFIxFhfS2LY (realizar los ejercicios en las carpetas)
2) En las carpetas realizamos las siguientes actividades:



Aplicaciones I - Planillas de Cálculo

  Asignatura: Aplicaciones I Curso: 4° Informática Profesora: Evangelina Rivero - e-mail:evange_rivero@hotmail.com Tema: Planillas de Cálcul...