jueves, 26 de marzo de 2009

plataforma dragon

En qué consiste la plataforma Dragón.Esta plataforma combina los tres campos fundamentales de un PC de juegos actual desde todos los ángulos. Procesadores, chipsets y tarjetas graficas trabajando en conjunto para lograr una plataforma muy capacitada, que trabaje en sincronía técnicas de ahorro de consumo y que se puede aprovechar de aplicaciones diseñadas para monitorizar y parametrizar todos los componentes de forma unificada. Tres son los pilares de esta plataforma. Por un lado los chips gráficos de la serie Radeon HD 4000 que tan buen resultado están dando por su fantástico equilibrio entre rendimiento, consumo y coste. El segundo pilar lo componen los chipsets de la serie 790 de AMD. Estos chipset han demostrado su fiabilidad y tecnología en los últimos meses llegando a la maestría en el manejo de tecnologías graficas combinadas como es el Crossfire Hibrido o el poder montar hasta cuatro tarjetas graficas en la misma placa base trabajando en paralelo. Estos dos componentes fundamentales llevan un tiempo ya con nosotros y hemos comprobado el buen trabajo realizado por AMD en ambos aspectos a la espera de encontrar una renovación de sus procesadores que acompañe mejor a ambos componentes con menores consumos y quizás algo más de rendimiento.

amd vs intel

En la web de HardOCP publican una interesante comparativa de rendimiento entre los dos procesadores estrella de Intel y AMD en distintos juegos.
Comparan un AMD AM2 FX-62 con un Core 2 Extreme X6800 en 7 juegos como son World of Warcraft, Need For Speed: Carbon, F.E.A.R. Extraction Point, Battlefield 2142, Medieval II: Total War, Flight Simulator X y Elder Scrolls IV: Oblivion. El sistema gráfico utilizado es un SLI de GeForce 8800 GTX.
Naturalmente y esto no sorprende a nadie comentan que en general consiguen mejor rendimiento con el procesador Intel y que donde han apreciado más diferencias es en Flight Simulator X y Medieval II: Total War donde pueden poner niveles de calidad gráfica un poco más altos con el procesador de Intel y seguir jugando igual de fluido.
A pesar de esta monstruosa configuración se han encontrado con parones en Oblivion y NFS: Carbon, claro que lo hacen con detalles altos, filtros y resoluciones de 2560x1600, en otros juegos han probado la resolución de 2048x1536. Creen que es posible que incluso los 768MB de la GeForce 8800 GTX podría ser insuficiente para estos niveles de detalle y sobretodo en SLI.
Con todo, creen que al querer utilizar tarjetas gráficas de gama muy alta o SLI cada vez se nota más la diferencia entre los procesadores actuales de AMD e Intel, recomendando acompañar estas VGAs con el mejor procesador que podamos montar, sin embargo y bajando a un nivel terrenal donde el usuario tiene presupuesto por una VGA de 200€ o a mucho estirar 250€ y con resoluciones más habituales, las diferencias entre procesadores serán mucho más modestas/negligibles y por lo tanto aún para jugar es mucho más importante mirar e invertir en una VGA potente que en el procesador.

nvidea vs ati

Las dos grandes empresas por excelencia de las tarjetas gráficas últimamente están en un tira y afloja que no parece acabar. Con la reciente salida de las ATI HD3870×2 (dos GPU en la misma gráfica) parece que se pone en cabeza ATI/AMD por un precio de algo más de unos 400€ y con una potencia gráfica mayor que la 8800 Ultra de Nvidia en aspectos como memoria, frecuencia (no mucho mas alta en esta pero ya que contamos con dos GPU es mas eficiente) y la interfaz de la memoria. Y todo eso con drivers que todavía están en fase beta.La gente espera que con esto Nvidia baje los precios de sus gráficas como por ejemplo la ultra que aunque no tener GDDR4 como las nuevas ATI sigue siendo una colosal y excelente gráfica, solo que muy cara (algo por debajo de los 600€). Pero sabemos como es Nvidia y algunas veces anteriores hemos esperado que bajen sus precios y no lo han echo. Por otra banda las tarjetas de nueva generación HD3000 de ATI/AMD bajan cada vez más los precios y contando que según los más expertos la tecnología Crossfirex de ATI esta más optimizada que la SLI de Nvidia. Apuntemos otro punto a favor de ATI/AMD.
Una de las mejores compras que se pueden hacer a gusto personal a día 9 de febrero seria comprar dos ATI HD3870 o una HD3870×2 (apara los que tengan espacio en su placa base porque esta tarjeta es gigante!! ) por unos 400€ para los gamers más exigentes y si no una 8800 GTS o dos HD3850. Las dos opciones rondarían los 300 y poco euros y sacarían un gran rendimiento a los juegos menos a Crysis y algunos de sus características, aunque podrían jugar igualmente. Aquí tengo que decir que la mejor opción serían las HD3850, les sacaras más rendimiento que a la 8800 GTS, si tuviera que ampliar la gráfica de mi ordenador son las que escogería.
Parece que de momento ATI/AMD está ganando la partida gracias a sus módicos precios más razonables que los que ofrece Nvidia y su velocidad en avanzar de tecnología antes que sus competidores, además de que adelantó la fecha de salida de sus últimas creaciones para tener más tiempo antes de que salgan las nuevas series de Nvidia.
Ahora la pelota está en el tejado de Nvidia: ¿Sus nuevas series que se espera que salgan este mes serán un método de contrarrestar la diferencia que ha dejado ATI sobre sus gráficas o serán de una potencia mejor y con precios razonables? Juzguen ustedes mismos.

amd phenom II

Las novedades de los AMD Phenom II respecto a overclocking cada vez son más impresionantes. La última, overclockear un Phenom II hasta 6.5 GHz..
Lógicamente, éste record se ha llevado a cabo gracias a una refrigeración en nitrógeno líquido con la que se ha obtenido una temperatura del micro de -230 grados centígrados. Al igual que aquella primera noticia, lo más sorprendente es que se ha duplicado la frecuencia final de la CPU, partiendo de los 3.0 GHz del Phenom II 940 hasta estos 6.5 GHz.
Curiosamente, tenemos que tener en cuenta que los Phenom II apenas llevan unas semanas en el mercado, desde su lanzamiento el pasado 8 de enero. Ya se encuentran en muchas tiendas, españolas incluidas, pero lo mejor está por llegar: lo mejor no sólo de los Phenom II de fábrica, sino también lo relativo a las posibilidades de overclocking que los nuevos micros de AMD tendrán en un futuro.
Si ya se ha conseguido duplicar la frecuencia de una CPU Phenom, es posible que con el paso del tiempo y el consecuente lanzamiento de nuevos modelos de micros y placas lleguemos incluso a triplicar o cuadruplicar las frecuencias base de los microprocesadores, siempre basándose en el nitrógeno líquido al ser éste el sistema más eficiente para este tipo de records.
Otra cosa es en el ámbito doméstico. En nuestras casas, lo más seguro es que un AMD Phenom II pueda overclockearse de una forma más sencilla y eficiente que un microprocesador Intel, pero no a los niveles que se consiguen con el nitrógeno líquido. Yo diría que con que un usuario doméstico consiga una mejora del 20 o 30% en la frecuencia base, ya es más que suficiente para que sea un completo éxito. Y eso, a día de hoy, no parece nada complicado con los Phenom II.

verificar estabilidad

El proceso de verificar la estabilidad y el aumento de rendimiento.Esto depende de nuestras necesidades, de nuestra forma de ver el overclocking y también de nuestro procesador. Lo normal es que ejecutemos una o varias tareas que usen el 100% de la CPU para estresarla durante largos periodos de tiempo y así asegurarnos de el procesador responderá antes las situaciones mas extremas de uso. Podemos usar test sintéticos como prime o programas 3D como 3Dmark, etc. Si nuestro procesador es de doble núcleo seria interesante que sometiéramos todo el procesador a estrés ejecutando diferentes aplicaciones en cada uno de los núcleos para que ambos trabajen al 100%. Mi opinión personal a este respecto es que debemos probar el procesador con aquellas aplicaciones y procesos que vayamos a usar normalmente. Si lo que hacemos con el Pc es jugar lo mejor es que juguemos si lo usamos para crear video u otro tipo de contenidos multimedia la mejor prueba es trabajar con ello. Siempre podemos además combinar un poquito de estas dos técnicas para lograr un resultado ponderado. El caso es que el overclocking no debe suponer un problema de estabilidad. Por sacar 100Mhz mas no debemos en ningún caso jugar con la estabilidad del sistema porque lo que ganaremos por un lado lo perderemos por el otro. Hacer overclocking en maquinas que no van a aprovechar ese aumento de rendimiento tiene poco sentido, para usar un office no necesitamos que el celeron de 2800 pase a 3800, de hecho nosotros devolveremos esta máquina a su estado normal tras finalizar las pruebas, pero nos sirve como ejemplo de lo que se puede llegar a hacer con las herramientas básicas actuales. El overclocking solo se aprovechará si utilizamos tareas que requerían mucho rendimiento de CPU y yo casi diría que es algo exclusivamente aprovechable para juegos y alguna otra tarea muy especificas.

ventilacion


Cómo refrigerar la caja del PCPuede parecer exagerado considerar que un PC es un dispositivo de potencia que necesita disipar grandes cantidades de calor residual para su funcionamiento normal. Pero tanto los Overclockers cómo los usuarios que tenemos una CPU que corra a más de 1 GHz sabemos que en condiciones normales bajar la temperatura del micro puede llegar a ser un problema. Existen multitud de sistemas y dispositivos para disipar el calor de la CPU, y en consecuencia, bajar su temperatura... Ahora bien, Por muy potente que sea el ventilador del micro, si no ventilamos adecuadamente la caja no vamos a conseguir bajar ni un grado. Antes de gastarnos un dinero en disipadores para CPU, para chipset gràfico, disco duro, etc... Quizá podamos mejorar mucho el rendimiento térmico de nuestra máquina con la simple instalación de unos ventiladores de caja que renueven el aire del interior de nuestro PC.
Fuentes de calor:
Un error muy frecuente es considerar que el único elemento que produce calor, y que en consecuencia hay que refrigerar es el microprocesador. En realidad cualquier componente electrónico irradia calor, en proporción a su valor resistivo y a la cantidad de corriente que pasa por él; a su potencia por lo tanto. Generalizando, podemos resumir que las principales fuentes de calor que encontraremos en nuestro PC son: El procesador, el chipset, la tarjeta de video, la fuente de alimentación, discos duros especialmente los SATA, los módulos de memoria, Las tarjetas PCI y en general todos los componentes de la placa base. Cada uno de estos elementos irradia calor, en diferentes proporciones, y calienta el aire del interior de la caja. Cómo sabemos, la densidad del aire disminuye en función de la temperatura, o lo que viene a ser lo mismo: El aire caliente asciende al tener una densidad menor que el aire frío. Esto quiere decir que en el interior de la caja del PC se crea una corriente ascendente de aire caliente, desde los diferentes dispositivos hasta la tapa de la caja. Lo que tendremos que hacer, en consecuencia, es extraer el aire caliente de la parte superior e inyectar aire frío en la parte inferior para renovar constantemente el aire del interior.





Los ventiladoresTodas las cajas del tipo ATX, semitorre o torre, disponen de una fuente de alimentación con su ventilador extractor. Además, este tipo de cajas suelen incorporar los taladros y ranuras para añadir un extractor adicional, en la parte superior trasera, y un ventilador inyector, en la parte inferior delantera. Lo que vamos a hacer es, justamente, montar estos dos ventiladores. De este modo conseguimos renovar el aire. Además, si tenemos ganas de hacer algo (poco) de bricolaje podemos añadir un ventilador inyector en el lateral para llevar aire frío hacia las tarjetas PCI. Hay que tener en cuenta que las aceleradoras 3D se calientan mucho. A tal efecto, practicaremos en la tapa lateral de la caja, y más o menos a la altura de la tarjeta 3D, 4 taladros a la medida de los tornillos de sujeción del ventilador y le practicaremos un agujero, más o menos del diámetro del mismo ventilador. Si queremos optimizar el flujo de aire hacia las tarjetas, podemos añadir al ventilador un tubo coarrugado del mismo diámetro que dirija el aire desde la tapa hacia las tarjetas (en las cajas medianas la longitud del tubo será de más o menos 50mm).



El flujo resultanteCon todo esto, conseguimos que el aire del interior de la caja se renueve constantemente en un flujo más o menos como el del gráfico. El aire frío entra por la parte inferior, se calienta al entrar en contacto con los diferentes dispositivos y sale por la parte superior. Sólo con esto cualquier configuración normal tendría que funcionar dentro de los parámetros de temperatura aconsejados por los fabricantes. El presupuesto para esta modificación es de 3.000 pesetas, contando que cada ventilador adicional cuesta más o menos 1000 pesetas por unidad y que la instalación nos la hacemos nosotros.

voltaje y disipacion



Overclocking: Guia para novatos
Índice del artículo 1. Introducción2. Las formas de overclocking3. La importancia de los buses secundarios4. Placa, memoria, disipación y suerte5. Voltajes, disipación...buscar el equilibrio.6. El overclocking es asequible7. El proceso de verificar la estabilidad y el aumento de rendimiento.8. Algunos resultados
FOROS HZ
¡¡PARTICIPA EN NUESTRA COMUNIDAD!!
Foro de Overclocking, Hardware, juegos y mucho más.click aquí


En esta guía podeis conocer en que consiste el overclocking, como llevarlo a cabo, cuales son sus principales conceptos y también un poco de historia sobre esta tendencia del PC que se remonta ya a los tiempos del 486.
window.google_render_ad();
Voltajes, disipación...buscar el equilibrio.Aumentar las frecuencias de cualquier componente lleva al consumo de mayor energía y por tanto a la generación de mas calor. Cuando consumimos mas energía podemos requerir mas corriente para mantener alimentado el procesador en estas nuevas condiciones. Cuanta corriente pasemos por los transistores del procesador mas calor generarán estos y por tanto mas capacidad de disipación necesitaremos. Dentro de esta combinación de factores: velocidad, corriente y energía a disipar, debemos encontrar el equilibrio para que nuestro procesador corra todo lo posible dentro de nuestras posibilidades de disipación y dentro de nuestras necesidades. Algo debe quedaros claro y es que cuando aumentamos la frecuencia de trabajo del procesador, cuando subimos su voltaje y cuando aumentamos el calor que este produce estamos acortando su vida útil y si hacemos las cosas sin el debido cuidado, si nos saltamos las propias barreras que el procesador nos va marcando y no tenemos paciencia con un proceso que solo se rige mediante prueba y error, entonces podemos dañar nuestro procesador de forma irremediable. En toda mi experiencia haciendo overclocking a todo tipo de procesador jamás he visto un solo micro estropeado por el propio proceso pero si por cosas ajenas al mismo como disipadores mal montados, fugas de agua en sistema de refrigeración, mal aislamiento del procesador o placa en sistema de refrigeración bajo cero....en estos casos no fue el overclocking quien daño el procesador u otros componentes, fue sin duda la mala manipulación de los mismos.
La variable preponderante en esta ecuación de equilibrio entre voltaje, disipación y velocidad es sin duda la disipación. Los componentes electrónicos agradecen las temperaturas mas reducidas posibles, funcionan mejor así, pero en los procesadores actuales la generación de calor es muy alta. Aunque parece que se vuelve al camino de la eficiencia por vatio de calor generado lo que es a día de hoy la temperatura es un factor fundamental. Por eso, como habéis podido ver en estas mismas paginas, cuando usamos un sistema que es capaz de dejar el procesador a temperaturas bajo cero las frecuencias que se alcanzan suelen ser en torno al 70% de overclocking cuando con un disipador convencional el limite suele rondar el 30%. Sabiendo esto es cuando debemos valorar si nos compensa gastarnos un dineral en un buen sistema de refrigeración o simplemente usar lo que tenemos para ganar todo lo posible a nuestra maquina sin tener que gastarnos ni un solo duro más.

board, memoria disipacion y suerte =)

Ya hemos visto que el centro de cualquier overclocking no es el procesador, es la placa base. La placa base debe darnos seguridad, funciones y capacidad, sin ella no hay nada que hacer. Como ya he dicho cualquier placa actual esta mas preparada que la mejor de las placas de overclocking de hace unos años pero aun así sigue siendo el elemento mas importante. La memoria es, de facto, un elemento secundario que puede ofrecernos un puntito mas de rendimiento si la mantenemos sincronía con el bus del procesador pero al fin y al cabo es un elemento secundario. Un punto muy importante es la disipación. El procesador cuanta mas frecuencia interna mas consumo de energía requiere y también mas vatios de calor genera. Si aumentamos mucho la frecuencia el aumento de temperatura será notable. Con esto no quiero decir que para hacer overclocking necesitemos un disipador de 60€ o un kit de refrigeración liquida, todo dependerá de hasta donde queramos llegar o de hasta donde nuestro procesador nos deje llegar. El overclocking es un 10% experiencia, un 20% paciencia y un 70% suerte. Cada procesador es diferente, puede compartir con otros un proceso de fabricación, e incluso salir de la misma oblea pero cada uno de se comportara de una forma diferente y una serie que parezca fantástica puede obsequiarnos con un procesador muy limitado y una serie mala puede regalarnos un procesador fuera de serie. Aquí podemos seguirnos por la experiencia de otros usuarios pero al final solo nos quedara la suerte y como ya digo en el tema del overclocking es fundamental. Podemos tener las mejores piezas que si el procesador no quiere subir no subirá.
En cuanto a los procesadores todos los micros son susceptibles de hacer overclocking en ellos. Si buscamos algo especial deberemos mirar sobretodo las prestaciones que buscamos del procesador y también su combinación de bus y multiplicador que mas se ajusta a nuestras necesidades. Un procesador con mucho bus pero poco multiplicador nos limitará mucho el aumento de frecuencias ya que necesitaremos un gran aumento del bus frontal para poder alcanzar cotas interesantes. Por otro lado un procesador con mucho multiplicador y poco bus, como por ejemplo el Pentium D 805 que tiene un bus de 133MHz reales y un multiplicador de 20x, hace que con la mas mínima subida las frecuencias reales se disparen. Lo mejor es buscar un equilibrio. Actualmente lo ideal, según el bus de 200MHz que se maneja actualmente en casi todos los procesadores y mirando también mucho de cara al Core 2 Duo y al AM2, lo ideal seria un multiplicador de 12x y un bus frontal de fabrica de 200MHz. Con esta combinación podemos llegar a overclockings extremos muy sorprendentes.

formas de overclocking

Como ya hemos comentado la frecuencia de un procesador viene definida por su bus frontal y por el multiplicador interno. Cualquier modificación en ambos parámetros hará cambiar la frecuencia de trabajo del procesador, su frecuencia real, que es la frecuencia interna del procesador. El aumento de multiplicador tiene ventajas evidentes, sobretodo en el pasado, ya que no requiere que modifiquemos ninguno de los otros buses secundarios que dependen del bus frontal. Aumentamos la frecuencia sin que ninguno de los otros componentes se vean afectados, solo el procesador se ve modificado. Solo hay un problema. En procesadores Intel desde los tiempos del Pentium 2 y salvo versiones Extreme Edition y versiones de ingeniero no hay opción a modificar el multiplicador, no positivamente (subirlo) ya que algunos micros en algunas placas base Asus si que permitían reducir en una unidad el multiplicador interno del procesador. El caso de AMD es si cabe ahora mas dramático ya que no hay un solo procesador que permita el cambio de multiplicador positivo ni tan siquiera los modelos más caros. Solo nos queda por tanto la opción de subir el bus si queremos aumentar la frecuencia de trabajo de nuestro procesador. Subir el bus frontal corre a cargo de la placa base y de la capacidad de dos componentes de la misma, el generador de reloj y el propio chipset de la placa base. Ahora estamos acostumbrados a ver placas base, desde las mas económicas, donde las opciones de aumento o cambio del bus son prácticamente milimétricas pero hace tiempo esto no existía y los cambios eran bruscos y solían llevar consigo problemas añadidos. Fue ABIT, una vez mas, quien introdujo el primer generador de reloj capaz de ajustarse de Mhz en MHz. Pero el generador de reloj no es mas que un instrumento con mayor o menor capacidad, el que luego tiene que hacerse cargo del aumento de velocidad es el chipset de la placa base y dependiendo de su calidad y potencial los resultados podrán ser mejores o peores.

ventilacion para la fuente de poder XD


Bueno vamos por los materiales:

1. Necesitaremos una lamina de acrílico ( Las medidas varían dependiendo de los ventiladores que tenga tu fuente ya sean de 120mm o de 80mm…en mi caso son de 80mm)

2. Un codo de tubería ( Este también varia dependiendo del diámetro de tus ventiladores…como no se consiguen medidas iguales a la de nuestros ventiladores trata de conseguir uno de una medida parecida….en mi caso el diámetro del codo es de 83mm)

3. Masilla epoxica ( esta masilla viene compuestas de dos materiales al mezclarlas se forma una masa dura…al secar no se partirá con nada
4. Un o dos ventiladores de mas ya que hay fuentes que solo traen un ventilador.5. Herramientas de corte como el motor tol o dremel que llaman





Ahora habláremos de la tobera (codo de tubería en PVC) el corte de esta debe ser muy preciso ya que un mal corte es primordial a la hora de ensamblar la tobera a la parte posterior del chasis, en este caso es recomendable tener una escuadra para saber que el corte es preciso. Ahora veremos la imagen de la tobera.






En la vista lateral de la tobera vemos que ambas salidas son totalmente horizontales, como ya dije anteriormente esto es esencial para el ensamble de los componentes.Ahora proseguimos a la unión de la tobera y la base…para esto necesitaremos algo de pega y masilla epoxica para la unión de ambas piezas, también podemos utilizar algo de silicona.Debemos tener cuidado a la hora de ensamblar nuestras piezas, tratemos de que los orificios de la tobera y de la base coincidan para evitar que el flujo de aire se vea afectado.Aquí esta el ensamble final entre tobera y base.







Si nuestra fuente de poder solo tiene un ventilador debemos modificar la carcasa de esta para montar el otro ventilador, esto lo hacemos con el dremel.Abrimos un orificio del diámetro del ventilador que vamos a utilizar en la parte trasera de la fuente con sus respectivos orificios de agarre.El ensamble final de la tobera con los ventiladores queda asi.



Luego de tener todo esto listo seguimos con el montaje de la tobera a la fuente, antes de esto los que no tienen una fuente con un ventilador en su parte trasera debemos hacerlo.El montaje de las piezas es muy sencillo, debemos tener presente que debe quedar bien apretada la tobera a la fuente para así evitar perdida de aire por los lados de la base. Para esto podemos utilizar un poco de silicona para sellar lo espacios que quedaron entre la tobera y la fuente.El montaje final queda asi.



ahora Viena la parte complicada del MOD.El orificio del gabinete debe estar bien centrado…tómense el tiempo necesario para tomar las medidas correctas. Este orificio debe coincidir exactamente el orificio de la tobera.Ahora solo queda atornillar y disfrutar de un buen sistema de ventilación para nuestra fuente…no olviden conseguir una rejilla para el ventilador que va pegado con el gabinete. SUERTE.








overclocking

Overclock es un anglicismo de uso habitual en informática. Literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de la CPU. La práctica conocida como overclocking (antiguamente conocido como undertiming) pretende alcanzar una mayor velocidad de reloj para un componente electrónico (por encima de las especificaciones del fabricante).[1] La idea es conseguir un rendimiento más alto gratuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.
Esta práctica se popularizó en los últimos tiempos, ya que no merecía la pena perder el componente por ganar unos pocos
megaherzios. El overclocking ya está más avanzado y permite forzar los componentes aún más (muchas veces cerca del doble) sin que pase nada, siempre que tengan una buena refrigeración.
Este aumento de
velocidad produce un mayor gasto energético, y por tanto, una mayor producción de calor residual en el componente electrónico. El calor puede producir fallos en el funcionamiento del componente, y se debe combatir con diversos sistemas de refrigeración (por aire con ventiladores, por agua o con una célula Peltier unida a un ventilador).[2] A veces, los fallos producidos por esta práctica, pueden dañar de forma definitiva el componente, otras veces, pueden producir un reinicio que conlleva la pérdida de datos de las aplicaciones abiertas, o en algún caso, la pérdida del sistema de archivos entero.[3]
Esta práctica está muy extendida entre los usuarios de informática más exigentes, que tratan de llevar al máximo el rendimiento de sus máquinas. Los consumidores menos atrevidos suelen comprar componentes informáticos de bajo coste, forzándolos posteriormente y alcanzando así el rendimiento esperado por los componentes de gama más alta. Por otro lado, los consumidores más fanáticos pueden llegar a adquirir componentes de última hornada para forzar su funcionamiento, y conseguir así pruebas de rendimiento inalcanzables para cualquier equipo de consumo. Por este motivo, la mayoría de los fabricantes decide no incluir en la garantía de su hardware los daños producidos por overclockearlos.
Hoy en día fabricantes de hardware producen sus productos desbloqueados para permitirles a los usuarios realizar overclock sobre los mismos.
[4] Es el caso de, por ejemplo, placas de video, microprocesadores, etc.





modding






El modding es el arte o técnica de modificar estética o funcionalmente partes de un ordenador, ya sea la torre, mouse, teclado o monitor. A todo el que practica o hace el modding se le llama "modder". Sin embargo, la palabra modding se suele usar frecuentemente para las modificaciones realizadas a un ordenador o a algo relacionado con él, como son los periféricos, accesorios e incluso muebles que lo rodean.
El modding es personalizar los PC añadiéndole, modificando o en muy raras ocasiones, sacándole partes, modificando la estructura de la caja, añadiendo componentes, modificando la forma de estos para obtener mayor espectacularidad y diseño, en definitiva es el arte de darle forma y color al PC poniendo en ello toda la imaginación que se pueda tener.
Las modificaciones más comunes que hoy en día se realizan a los ordenadores son:






  • Sustitución de diodos LED por otros más potentes o cátodos fríos de diferentes colores.


  • Sustitución de cables IDE por Cables IDE redondeados y/o reactivos al UV (mejoran la refrigeración del gabinete)


  • Pintado interior o exterior (incluidos componentes electrónicos).


  • Construcción de ventanas para hacer visible el interior o conseguir un efecto estético (con metacrilato).


  • Construcción de blowholes (entradas o salidas de aire con ventiladores de fácil acceso).


  • Colocación de ventiladores para mejorar la refrigeración de los componentes electrónicos.


  • Colocación de un BayBus externo (controlador de los ventiladores que hay en el interior del gabinete)


  • Colocación de elementos de iluminación interior y a veces exterior.


  • Construcción de elementos para monitorizar las temperaturas de los componentes electrónicos o controlar la velocidad de los ventiladores (Baybus, Fanbus, Rheobus).


  • Sustitución total o parcial de los elementos de refrigeración convencional por elementos de refrigeración silenciosa o pasiva, refrigeración líquida o la más reciente refrigeración por evaporación. Esta última se la conoce actualmente como "Heat - Pipes".


  • Construcción o colocación de algún elemento original que le dará el estilo único (Rejillas, bordados, logotipos, etc).