Hola hippies... :) Hace poco hablando con Cleto y Paco Moya me comentaron que ya no eran vapor las memorias de 50gb peremnes... Comentaron también que sería el fin de la paginación y de compartir memoria. Yo, como tonto de remate, no estoy de acuerdo o a lo mejor no lo veo muy claro... Paco mantenía la teoría de usar diferentes patitas (creo que se refería con esto a usar diferentes direcciones físicas) para cada parte que se fuera a ocupar en la memoria. Es un sueño, algo muy bonito. No más exploits, no más petes de una aplicación y el sistema a la porra, no más ... La cuestión es que esto es factible para una batidora, una cafetera, o un aparato que haga una reserva de memoria basada en el algoritmo del programador de 1º, esto es ... nada de memoria dinámica, a lo manzanillón, este es mi bloque pues sin problema, todo para mi. Esto está muy bien, pero qué pasa si una aplicación requiere más memoria? Cómo se equilibra que unas aplicaciones necesiten hasta 1000000 de veces más de memoria? Si todo esto funciona por hardware... un poco dificil, no? Desperdiciar memoria no es problema, pero no tenerla disponible sí. Entonces, para solucionar esto, de algún modo, se usará software, llámese bios, firmware, etc... Y, ¿qué sentido tendría? Podría haber problemas de seguridad de este modo también, no? El caso es que está bien, no paginar, necesitar muchos bits para direccionar, todo esto... es un sueño... apuntar el PC a memoria y tener cargado el sistema operativo, decirle al dma de la gráfica que comparta un trozito de memoria y con sólo darle al botón de encendido que todo esté listo... perfecto... pero de ahí a reservar memoria de forma física o acabar con la paginación, es un poco exagerado, no? ¿Cuántos bits harán falta para direccionar la memoria cuando crezca de forma exponencial? Seguro que es todo una tontería, y que estoy equivocado, pero "si no hay polémica, no hay conversación" Un saludo! Sergio.


blog comments powered by Disqus