jueves, 26 de marzo de 2009

plataforma dragon

En qué consiste la plataforma Dragón.Esta plataforma combina los tres campos fundamentales de un PC de juegos actual desde todos los ángulos. Procesadores, chipsets y tarjetas graficas trabajando en conjunto para lograr una plataforma muy capacitada, que trabaje en sincronía técnicas de ahorro de consumo y que se puede aprovechar de aplicaciones diseñadas para monitorizar y parametrizar todos los componentes de forma unificada. Tres son los pilares de esta plataforma. Por un lado los chips gráficos de la serie Radeon HD 4000 que tan buen resultado están dando por su fantástico equilibrio entre rendimiento, consumo y coste. El segundo pilar lo componen los chipsets de la serie 790 de AMD. Estos chipset han demostrado su fiabilidad y tecnología en los últimos meses llegando a la maestría en el manejo de tecnologías graficas combinadas como es el Crossfire Hibrido o el poder montar hasta cuatro tarjetas graficas en la misma placa base trabajando en paralelo. Estos dos componentes fundamentales llevan un tiempo ya con nosotros y hemos comprobado el buen trabajo realizado por AMD en ambos aspectos a la espera de encontrar una renovación de sus procesadores que acompañe mejor a ambos componentes con menores consumos y quizás algo más de rendimiento.

amd vs intel

En la web de HardOCP publican una interesante comparativa de rendimiento entre los dos procesadores estrella de Intel y AMD en distintos juegos.
Comparan un AMD AM2 FX-62 con un Core 2 Extreme X6800 en 7 juegos como son World of Warcraft, Need For Speed: Carbon, F.E.A.R. Extraction Point, Battlefield 2142, Medieval II: Total War, Flight Simulator X y Elder Scrolls IV: Oblivion. El sistema gráfico utilizado es un SLI de GeForce 8800 GTX.
Naturalmente y esto no sorprende a nadie comentan que en general consiguen mejor rendimiento con el procesador Intel y que donde han apreciado más diferencias es en Flight Simulator X y Medieval II: Total War donde pueden poner niveles de calidad gráfica un poco más altos con el procesador de Intel y seguir jugando igual de fluido.
A pesar de esta monstruosa configuración se han encontrado con parones en Oblivion y NFS: Carbon, claro que lo hacen con detalles altos, filtros y resoluciones de 2560x1600, en otros juegos han probado la resolución de 2048x1536. Creen que es posible que incluso los 768MB de la GeForce 8800 GTX podría ser insuficiente para estos niveles de detalle y sobretodo en SLI.
Con todo, creen que al querer utilizar tarjetas gráficas de gama muy alta o SLI cada vez se nota más la diferencia entre los procesadores actuales de AMD e Intel, recomendando acompañar estas VGAs con el mejor procesador que podamos montar, sin embargo y bajando a un nivel terrenal donde el usuario tiene presupuesto por una VGA de 200€ o a mucho estirar 250€ y con resoluciones más habituales, las diferencias entre procesadores serán mucho más modestas/negligibles y por lo tanto aún para jugar es mucho más importante mirar e invertir en una VGA potente que en el procesador.

nvidea vs ati

Las dos grandes empresas por excelencia de las tarjetas gráficas últimamente están en un tira y afloja que no parece acabar. Con la reciente salida de las ATI HD3870×2 (dos GPU en la misma gráfica) parece que se pone en cabeza ATI/AMD por un precio de algo más de unos 400€ y con una potencia gráfica mayor que la 8800 Ultra de Nvidia en aspectos como memoria, frecuencia (no mucho mas alta en esta pero ya que contamos con dos GPU es mas eficiente) y la interfaz de la memoria. Y todo eso con drivers que todavía están en fase beta.La gente espera que con esto Nvidia baje los precios de sus gráficas como por ejemplo la ultra que aunque no tener GDDR4 como las nuevas ATI sigue siendo una colosal y excelente gráfica, solo que muy cara (algo por debajo de los 600€). Pero sabemos como es Nvidia y algunas veces anteriores hemos esperado que bajen sus precios y no lo han echo. Por otra banda las tarjetas de nueva generación HD3000 de ATI/AMD bajan cada vez más los precios y contando que según los más expertos la tecnología Crossfirex de ATI esta más optimizada que la SLI de Nvidia. Apuntemos otro punto a favor de ATI/AMD.
Una de las mejores compras que se pueden hacer a gusto personal a día 9 de febrero seria comprar dos ATI HD3870 o una HD3870×2 (apara los que tengan espacio en su placa base porque esta tarjeta es gigante!! ) por unos 400€ para los gamers más exigentes y si no una 8800 GTS o dos HD3850. Las dos opciones rondarían los 300 y poco euros y sacarían un gran rendimiento a los juegos menos a Crysis y algunos de sus características, aunque podrían jugar igualmente. Aquí tengo que decir que la mejor opción serían las HD3850, les sacaras más rendimiento que a la 8800 GTS, si tuviera que ampliar la gráfica de mi ordenador son las que escogería.
Parece que de momento ATI/AMD está ganando la partida gracias a sus módicos precios más razonables que los que ofrece Nvidia y su velocidad en avanzar de tecnología antes que sus competidores, además de que adelantó la fecha de salida de sus últimas creaciones para tener más tiempo antes de que salgan las nuevas series de Nvidia.
Ahora la pelota está en el tejado de Nvidia: ¿Sus nuevas series que se espera que salgan este mes serán un método de contrarrestar la diferencia que ha dejado ATI sobre sus gráficas o serán de una potencia mejor y con precios razonables? Juzguen ustedes mismos.

amd phenom II

Las novedades de los AMD Phenom II respecto a overclocking cada vez son más impresionantes. La última, overclockear un Phenom II hasta 6.5 GHz..
Lógicamente, éste record se ha llevado a cabo gracias a una refrigeración en nitrógeno líquido con la que se ha obtenido una temperatura del micro de -230 grados centígrados. Al igual que aquella primera noticia, lo más sorprendente es que se ha duplicado la frecuencia final de la CPU, partiendo de los 3.0 GHz del Phenom II 940 hasta estos 6.5 GHz.
Curiosamente, tenemos que tener en cuenta que los Phenom II apenas llevan unas semanas en el mercado, desde su lanzamiento el pasado 8 de enero. Ya se encuentran en muchas tiendas, españolas incluidas, pero lo mejor está por llegar: lo mejor no sólo de los Phenom II de fábrica, sino también lo relativo a las posibilidades de overclocking que los nuevos micros de AMD tendrán en un futuro.
Si ya se ha conseguido duplicar la frecuencia de una CPU Phenom, es posible que con el paso del tiempo y el consecuente lanzamiento de nuevos modelos de micros y placas lleguemos incluso a triplicar o cuadruplicar las frecuencias base de los microprocesadores, siempre basándose en el nitrógeno líquido al ser éste el sistema más eficiente para este tipo de records.
Otra cosa es en el ámbito doméstico. En nuestras casas, lo más seguro es que un AMD Phenom II pueda overclockearse de una forma más sencilla y eficiente que un microprocesador Intel, pero no a los niveles que se consiguen con el nitrógeno líquido. Yo diría que con que un usuario doméstico consiga una mejora del 20 o 30% en la frecuencia base, ya es más que suficiente para que sea un completo éxito. Y eso, a día de hoy, no parece nada complicado con los Phenom II.

verificar estabilidad

El proceso de verificar la estabilidad y el aumento de rendimiento.Esto depende de nuestras necesidades, de nuestra forma de ver el overclocking y también de nuestro procesador. Lo normal es que ejecutemos una o varias tareas que usen el 100% de la CPU para estresarla durante largos periodos de tiempo y así asegurarnos de el procesador responderá antes las situaciones mas extremas de uso. Podemos usar test sintéticos como prime o programas 3D como 3Dmark, etc. Si nuestro procesador es de doble núcleo seria interesante que sometiéramos todo el procesador a estrés ejecutando diferentes aplicaciones en cada uno de los núcleos para que ambos trabajen al 100%. Mi opinión personal a este respecto es que debemos probar el procesador con aquellas aplicaciones y procesos que vayamos a usar normalmente. Si lo que hacemos con el Pc es jugar lo mejor es que juguemos si lo usamos para crear video u otro tipo de contenidos multimedia la mejor prueba es trabajar con ello. Siempre podemos además combinar un poquito de estas dos técnicas para lograr un resultado ponderado. El caso es que el overclocking no debe suponer un problema de estabilidad. Por sacar 100Mhz mas no debemos en ningún caso jugar con la estabilidad del sistema porque lo que ganaremos por un lado lo perderemos por el otro. Hacer overclocking en maquinas que no van a aprovechar ese aumento de rendimiento tiene poco sentido, para usar un office no necesitamos que el celeron de 2800 pase a 3800, de hecho nosotros devolveremos esta máquina a su estado normal tras finalizar las pruebas, pero nos sirve como ejemplo de lo que se puede llegar a hacer con las herramientas básicas actuales. El overclocking solo se aprovechará si utilizamos tareas que requerían mucho rendimiento de CPU y yo casi diría que es algo exclusivamente aprovechable para juegos y alguna otra tarea muy especificas.

ventilacion


Cómo refrigerar la caja del PCPuede parecer exagerado considerar que un PC es un dispositivo de potencia que necesita disipar grandes cantidades de calor residual para su funcionamiento normal. Pero tanto los Overclockers cómo los usuarios que tenemos una CPU que corra a más de 1 GHz sabemos que en condiciones normales bajar la temperatura del micro puede llegar a ser un problema. Existen multitud de sistemas y dispositivos para disipar el calor de la CPU, y en consecuencia, bajar su temperatura... Ahora bien, Por muy potente que sea el ventilador del micro, si no ventilamos adecuadamente la caja no vamos a conseguir bajar ni un grado. Antes de gastarnos un dinero en disipadores para CPU, para chipset gràfico, disco duro, etc... Quizá podamos mejorar mucho el rendimiento térmico de nuestra máquina con la simple instalación de unos ventiladores de caja que renueven el aire del interior de nuestro PC.
Fuentes de calor:
Un error muy frecuente es considerar que el único elemento que produce calor, y que en consecuencia hay que refrigerar es el microprocesador. En realidad cualquier componente electrónico irradia calor, en proporción a su valor resistivo y a la cantidad de corriente que pasa por él; a su potencia por lo tanto. Generalizando, podemos resumir que las principales fuentes de calor que encontraremos en nuestro PC son: El procesador, el chipset, la tarjeta de video, la fuente de alimentación, discos duros especialmente los SATA, los módulos de memoria, Las tarjetas PCI y en general todos los componentes de la placa base. Cada uno de estos elementos irradia calor, en diferentes proporciones, y calienta el aire del interior de la caja. Cómo sabemos, la densidad del aire disminuye en función de la temperatura, o lo que viene a ser lo mismo: El aire caliente asciende al tener una densidad menor que el aire frío. Esto quiere decir que en el interior de la caja del PC se crea una corriente ascendente de aire caliente, desde los diferentes dispositivos hasta la tapa de la caja. Lo que tendremos que hacer, en consecuencia, es extraer el aire caliente de la parte superior e inyectar aire frío en la parte inferior para renovar constantemente el aire del interior.





Los ventiladoresTodas las cajas del tipo ATX, semitorre o torre, disponen de una fuente de alimentación con su ventilador extractor. Además, este tipo de cajas suelen incorporar los taladros y ranuras para añadir un extractor adicional, en la parte superior trasera, y un ventilador inyector, en la parte inferior delantera. Lo que vamos a hacer es, justamente, montar estos dos ventiladores. De este modo conseguimos renovar el aire. Además, si tenemos ganas de hacer algo (poco) de bricolaje podemos añadir un ventilador inyector en el lateral para llevar aire frío hacia las tarjetas PCI. Hay que tener en cuenta que las aceleradoras 3D se calientan mucho. A tal efecto, practicaremos en la tapa lateral de la caja, y más o menos a la altura de la tarjeta 3D, 4 taladros a la medida de los tornillos de sujeción del ventilador y le practicaremos un agujero, más o menos del diámetro del mismo ventilador. Si queremos optimizar el flujo de aire hacia las tarjetas, podemos añadir al ventilador un tubo coarrugado del mismo diámetro que dirija el aire desde la tapa hacia las tarjetas (en las cajas medianas la longitud del tubo será de más o menos 50mm).



El flujo resultanteCon todo esto, conseguimos que el aire del interior de la caja se renueve constantemente en un flujo más o menos como el del gráfico. El aire frío entra por la parte inferior, se calienta al entrar en contacto con los diferentes dispositivos y sale por la parte superior. Sólo con esto cualquier configuración normal tendría que funcionar dentro de los parámetros de temperatura aconsejados por los fabricantes. El presupuesto para esta modificación es de 3.000 pesetas, contando que cada ventilador adicional cuesta más o menos 1000 pesetas por unidad y que la instalación nos la hacemos nosotros.

voltaje y disipacion



Overclocking: Guia para novatos
Índice del artículo 1. Introducción2. Las formas de overclocking3. La importancia de los buses secundarios4. Placa, memoria, disipación y suerte5. Voltajes, disipación...buscar el equilibrio.6. El overclocking es asequible7. El proceso de verificar la estabilidad y el aumento de rendimiento.8. Algunos resultados
FOROS HZ
¡¡PARTICIPA EN NUESTRA COMUNIDAD!!
Foro de Overclocking, Hardware, juegos y mucho más.click aquí


En esta guía podeis conocer en que consiste el overclocking, como llevarlo a cabo, cuales son sus principales conceptos y también un poco de historia sobre esta tendencia del PC que se remonta ya a los tiempos del 486.
window.google_render_ad();
Voltajes, disipación...buscar el equilibrio.Aumentar las frecuencias de cualquier componente lleva al consumo de mayor energía y por tanto a la generación de mas calor. Cuando consumimos mas energía podemos requerir mas corriente para mantener alimentado el procesador en estas nuevas condiciones. Cuanta corriente pasemos por los transistores del procesador mas calor generarán estos y por tanto mas capacidad de disipación necesitaremos. Dentro de esta combinación de factores: velocidad, corriente y energía a disipar, debemos encontrar el equilibrio para que nuestro procesador corra todo lo posible dentro de nuestras posibilidades de disipación y dentro de nuestras necesidades. Algo debe quedaros claro y es que cuando aumentamos la frecuencia de trabajo del procesador, cuando subimos su voltaje y cuando aumentamos el calor que este produce estamos acortando su vida útil y si hacemos las cosas sin el debido cuidado, si nos saltamos las propias barreras que el procesador nos va marcando y no tenemos paciencia con un proceso que solo se rige mediante prueba y error, entonces podemos dañar nuestro procesador de forma irremediable. En toda mi experiencia haciendo overclocking a todo tipo de procesador jamás he visto un solo micro estropeado por el propio proceso pero si por cosas ajenas al mismo como disipadores mal montados, fugas de agua en sistema de refrigeración, mal aislamiento del procesador o placa en sistema de refrigeración bajo cero....en estos casos no fue el overclocking quien daño el procesador u otros componentes, fue sin duda la mala manipulación de los mismos.
La variable preponderante en esta ecuación de equilibrio entre voltaje, disipación y velocidad es sin duda la disipación. Los componentes electrónicos agradecen las temperaturas mas reducidas posibles, funcionan mejor así, pero en los procesadores actuales la generación de calor es muy alta. Aunque parece que se vuelve al camino de la eficiencia por vatio de calor generado lo que es a día de hoy la temperatura es un factor fundamental. Por eso, como habéis podido ver en estas mismas paginas, cuando usamos un sistema que es capaz de dejar el procesador a temperaturas bajo cero las frecuencias que se alcanzan suelen ser en torno al 70% de overclocking cuando con un disipador convencional el limite suele rondar el 30%. Sabiendo esto es cuando debemos valorar si nos compensa gastarnos un dineral en un buen sistema de refrigeración o simplemente usar lo que tenemos para ganar todo lo posible a nuestra maquina sin tener que gastarnos ni un solo duro más.