MEMORIA CACHE
Objetivos
Mantener el tiempo de acceso promedio a la memoria pequeño.
Reducir el ancho de banda entre memoria principal y procesador
Operación del cache
La dirección generada por el procesador es comparada con los datos que están almacenados en la cache, si el dato está presente, el procesador lo lee desde la cache, si el dato no está presente, se transfiere desde la memoria principal a la cache.
Terminología
Bloque : unidad mínima de almacenamiento en cache
Acierto : palabra buscada pertenece a bloque presente en cache
Desacierto : palabra buscada pertenece a bloque ausente de cache
Razón de acierto : fracción de referencias a memoria que producen aciertos
Razón de desacierto : 1 - (razón de acierto)
Tiempo de acierto : tiempo en leer un dato del cache
Penalidad de desacierto : (tiempo en reemplazar bloque) + (tiempo de lectura de dato al procesador)
Valores típicos
Parámetro
Valor típico
Tamaño del bloque
4-128 bytes
Tiempo de acierto
1-4 ciclos
Penalidad de desacierto
8-32 ciclos
Tiempo de acceso
6-10 ciclos
Tiempo de transferencia
2-22 ciclos
Razón de desacierto
0,01-0,2
Tamaño del cache
1Kbyte - 256Kbyte
Localidad
Localidad Temporal
Se mantienen los datos accesados más recientemente en la memoria rápida.
Localidad espacial
Al leer un dato al cache, se leen los datos contiguos (bloque).
Tiempo de acceso promedio a memoria
Tiempo acceso = (razón de acierto) * (tiempo de acierto)
(razón de desacierto) * (penalidad de desacierto)
¿Dónde ubicar un bloque en el cache?
Cache de proyección directa
Cada bloque de datos en memoria puede ubicarse en un y sólo un bloque del cache.
Ubicación normalmente es: número del bloque módulo número de bloques en el cache
Ventajas y desventaja
- Económico, acceso rápido (utilizado en caches internas) .
- Mayor razón de desaciertos por competencia por bloque específico.
Cache completamente asociativo
Cualquier bloque de memoria puede ubicarse en cualquier bloque del cache.
Número completo del bloque es el tag.
Ventajas y desventajas
- Más caro (muchos comparadores).
- Acceso más lento, dato no disponible hasta saber si acceso fue acierto o desacierto (etapa de comparación y multiplexión).
- Menor tasa de desaciertos por competencia por bloque
Cache asociativo por conjuntos
Es un esquema intermedio.
Cada bloque memoria puede ser ubicado en uno de N bloques del cache (conjuntos de N bloques) .
Cada bloque de memoria tiene asociado un conjunto específico.
Ventajas y desventajas
Más económico que cache completamente asociativo, pero más caro que cache
directo
Dato disponible después de etapa de comparación y multiplexión
¿Cómo encontrar un bloque en el cache?
Cache de proyección directa
Acceso directo al bloque: cada bloque de memoria puede encontrarse sólo en un bloque del cache.
Bloque se encuentra a través de indexación (usando el número del bloque como índice)
Se requiere comparar los tags para saber si el bloque es realmente el que se busca
Bloque está disponible antes de terminar la comparación
Cache completamente asociativo
Búsqueda completa: el bloque puede estar en cualquier bloque del cache
Comparar el tag del bloque con todos los tags de los bloques del cache
Multiplexor selecciona bloque cuyo tag coincide, si existe uno
Dato está disponible después de las comparaciones.
Cache asociativo por conjuntos
Indexación parcial: encontrar el conjunto del bloque
Búsqueda asociativa parcial: encontrar el bloque dentro del conjunto
Comparar tags de bloques dentro del conjunto
Multiplexor selecciona bloque dentro del conjunto
Bloque disponible después de la selección
Que bloque reemplazar en un desacierto
Reemplazo aleatorio
Cualquier bloque
Menos recientemente usado
Mejor desempeño que aleatorio (aprox. 10%)
Más complejo de implementar (se aproxima)
Como manejar la escritura en el cache
Escritura sincrona
Bloque se escribe en cache y en memoria principal
Se utiliza buffer de escritura para mejorar desempeño (write buffer)
No necesita ser escrito en memoria principal al ser reemplazado
Escritura puede realizarse en paralelo con verificación de acierto/desacierto
Escritura asincrona
Se escribe solamente en el cache
Bloque se escribe en memoria principal cuando es reemplazado
Necesita un bit adicional para indicar que el bloque fue modificado (dirty bit)
Requiere verificar acierto/desacierto antes de escribir en cache
Causas de desaciertos
Desaciertos compulsorios
Primer acceso al bloque
Posteriores accesos no provocan desacierto
Desaciertos de capacidad
Tamaño del cache insuficiente
Aumentar tamaño del cache
Desaciertos de conflicto
Bloques de memoria compiten por bloques en cache
Aumentar grado de asociatividad del cache
Sistemas de memoria para soporte de cache
Memoria de una palabra de ancho
Requiere varios accesos a memoria
Memoria requiere ser muy rápida
Solución cara
Memoria de varias palabra de ancho
Ancho de palabra mayor (ej. del tamaño del bloque)
Bus ancho permite transferir bloque completo al cache en un acceso
Costo alto
Memorias entrelazadas (interleaved memory)
Memoria ancha (ej. del tamaño del bloque)
Bus de ancho normal
Lectura simultánea a las memorias
Acceso segmentado para la transferencia
La memoria virtual
La memoria virtual es una técnica que permite al software usar más memoria principal que la que realmente posee el ordenador. La mayoría de los ordenadores tienen cuatro tipos de memoria: registros en la CPU, la memoria caché (tanto dentro como fuera del CPU), la memoria física (generalmente en forma de RAM, donde la CPU puede escribir y leer directa y razonablemente rápido) y el disco duro que es mucho más lento, pero también más grande y barato.
Muchas aplicaciones requieren el acceso a más información (código y datos) que la que se puede mantener en memoria física. Esto es así sobre todo cuando el sistema operativo permite múltiples procesos y aplicaciones ejecutándose simultáneamente. Una solución al problema de necesitar mayor cantidad de memoria de la que se posee consiste en que las aplicaciones mantengan parte de su información en disco, moviéndola a la memoria principal cuando sea necesario. Hay varias formas de hacer esto. Una opción es que la aplicación misma sea responsable de decidir qué información será guardada en cada sitio (segmentación), y de traerla y llevarla. La desventaja de esto, además de la dificultad en el diseño e implementación del programa, es que es muy probable que los intereses sobre la memoria de dos o varios programas generen conflictos entre sí: cada programador podría realizar su diseño teniendo en cuenta que es el único programa ejecutándose en el sistema. La alternativa es usar memoria virtual, donde la combinación entre hardware especial y el sistema operativo hace uso de la memoria principal y la secundaria para hacer parecer que el ordenador tiene mucha más memoria principal (RAM) que la que realmente posee. Este método es invisible a los procesos. La cantidad de memoria máxima que se puede hacer ver que hay tiene que ver con las características del procesador. Por ejemplo, en un sistema de 32 bits, el máximo es 232, lo que da 4096 Megabytes (4 Gigabytes). Todo esto hace el trabajo del programador de aplicaciones mucho más fácil, al poder ignorar completamente la necesidad de mover datos entre los distintos espacios de memoria.
Aunque la memoria virtual podría estar implementada por el software del sistema operativo, en la práctica casi siempre se usa una combinación de hardware y software, dado el esfuerzo extra que implicaría para el procesador.
Operación básica [editar]
Cuando se usa Memoria Virtual, o cuando una dirección es leída o escrita por la CPU, una parte del hardware dentro de la computadora traduce las direcciones de memoria generadas por el software (direcciones virtuales) en:
la dirección real de memoria (la dirección de memoria física), o
una indicación de que la dirección de memoria deseada no se encuentra en memoria principal (llamado excepción de memoria virtual)
En el primer caso, la referencia a la memoria es completada, como si la memoria virtual no hubiera estado involucrada: el software accede donde debía y sigue ejecutando normalmente. En el segundo caso, el sistema operativo es invocado para manejar la situación y permitir que el programa siga ejecutando o aborte según sea el caso. La memoria virtual es una técnica para proporcionar la simulación de un espacio de memoria mucho mayor que la memoria física de una máquina. Esta "ilusión" permite que los programas se ejecuten sin tener en cuenta el tamaño exacto de la memoria física.
La ilusión de la memoria virtual está soportada por el mecanismo de traducción de memoria, junto con una gran cantidad de almacenamiento rápido en disco duro. Así en cualquier momento el espacio de direcciones virtual hace un seguimiento de tal forma que una pequeña parte de él, está en memoria real y el resto almacenado en el disco, y puede ser referenciado fácilmente.
Debido a que sólo la parte de memoria virtual que está almacenada en la memoria principal, es accesible a la CPU, según un programa va ejecutándose, la proximidad de referencias a memoria cambia, necesitando que algunas partes de la memoria virtual se traigan a la memoria principal desde el disco, mientras que otras ya ejecutadas, se pueden volver a depositar en el disco (archivos de paginación).
La memoria virtual ha llegado a ser un componente esencial de la mayoría de los sistemas operativos actuales. Y como en un instante dado, en la memoria sólo se tienen unos pocos fragmentos de un proceso dado, se pueden mantener más procesos en la memoria. Es más, se ahorra tiempo, porque los fragmentos que no se usan no se cargan ni se descargan de la memoria. Sin embargo, el sistema operativo debe saber cómo gestionar este esquema.
La memoria virtual también simplifica la carga del programa para su ejecución llamada reubicación, este procedimiento permite que el mismo programa se ejecute en cualquier posición de la memoria física.
En un estado estable, prácticamente toda la memoria principal estará ocupada con fragmentos de procesos, por lo que el procesador y el S.O tendrán acceso directo a la mayor cantidad de procesos posibles, y cuando el S.O traiga a la memoria un fragmento, deberá expulsar otro. Si expulsa un fragmento justo antes de ser usado, tendrá que traer de nuevo el fragmento de manera casi inmediata. Demasiados intercambios de fragmentos conducen a lo que se conoce como hiperpaginación: donde el procesador consume más tiempo intercambiando fragmentos que ejecutando instrucciones de usuario. Para evitarlo el sistema operativo intenta adivinar, en función de la historia reciente, qué fragmentos se usarán con menor probabilidad en un futuro próximo (véase algoritmos de reemplazo de páginas).
Los argumentos anteriores se basan en el principio de cercanía de referencias o principio de localidad que afirma que las referencias a los datos y el programa dentro de un proceso tienden a agruparse. Por lo tanto, es válida la suposición de que, durante cortos períodos de tiempo, se necesitarán sólo unos pocos fragmentos de un proceso.
Una manera de confirmar el principio de cercanía es considerar el rendimiento de un proceso en un entorno de memoria virtual.
El principio de cercanía sugiere que los esquemas de memoria virtual pueden funcionar. Para que la memoria virtual sea práctica y efectiva, se necesitan dos ingredientes. Primero, tiene que existir un soporte de hardware y, en segundo lugar, el S.O debe incluir un software para gestionar el movimiento de páginas o segmentos entre memoria secundaria y memoria principal.
Justo después de obtener la dirección física y antes de consultar el dato en memoria principal se busca en memoria-cache, si esta entre los datos recientemente usados la búsqueda tendrá éxito, pero si falla, la memoria virtual consulta memoria principal , ó, en el peor de los casos se consulta de disco (swapping).
Un buffer
Un buffer (o búfer) en informática es un espacio de memoria, en el que se almacenan datos para evitar que el programa o recurso que los requiere, ya sea hardware o software, se quede en algún momento sin datos.
Algunos ejemplos de aplicaciones de buffers son:
El buffer de teclado es una memoria intermedia en la que se van almacenando los caracteres que un usuario teclea, generalmente, hasta que pulsa la tecla [INTRO], momento en el cual el programa captura todos o parte de los caracteres tecleados contenidos en dicho buffer.
En Audio o video en streaming por Internet. Se tiene un buffer para que haya menos posibilidades de que se corte la reproducción cuando se reduzca o corte el ancho de banda.
Un buffer adecuado permite que en el salto entre dos canciones no haya una pausa molesta.
Las grabadoras de CD o DVD, tienen un buffer para que no se pare la grabación. Hoy en día hay sistemas para retomar la grabación pero antes suponía que el CD no quedaba bien grabado y muchas veces era inservible.
El concepto del Buffer es similar al de caché. Pero en el caso del buffer, los datos que se introducen siempre van a ser utilizados. En la caché sin embargo, no hay seguridad, sino una mayor probabilidad de utilización.
Para explicar la acepción informática a gente no técnica, se puede usar esta metáfora: Un buffer es como tener dinero en el banco (buffer), un trabajo (entrada) y unos gastos fijos (salida). Si tienes un trabajo inestable, mientras tengas ciertos ahorros, puedes mantener tus gastos fijos sin problemas, e ir ingresando dinero cuando puedas según vas trabajando. Si los ahorros son pequeños, en seguida que no tengas trabajo, no vas a poder acometer los gastos fijos. De la misma forma si escuchas música en Internet y tu programa de audio usa un buffer pequeño, en cuanto que haya alguna interrupción en la descarga (porque las descargas nunca tienen una velocidad constante), notarás cortes de sonido, ya que faltará información.
Los buffers se pueden usar en cualquier sistema digital, no solo en los informáticos, por ejemplo se utilizan en reproductores de música y vídeo .
Obtenido de "http://es.wikipedia.org/wiki/Buffer_de_datos"
http://www.dcc.uchile.cl/~rbaeza/cursos/proyarq/mmonsalv/mmonsalv.html
http://es.wikipedia.org/wiki/Memoria_virtual
miércoles, 26 de agosto de 2009
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario