Las ventas de AMD Radeon caen un 48%

1, 2, 3, 4
PSX22 escribió:@Cyborg_Ninja


De toda esa biblia me he leido una linea solo y era una barbaridad de la desinformacion de nuevo


Aham, explica por qué. Desmonta argumentos, porque lo que estás haciendo durante todo el hilo es ponerte los dedos en los oídos y gritar muy fuerte que tienes la razón.
No le deis mas cuerda, ya se cansara🤣
PSX22 escribió:
Mayban36 escribió:
De toda esa biblia me he leido una linea solo y era una barbaridad de la desinformacion de nuevo


Cuanta educación, gracias.

Sigo esperando esas demostraciones de juegos que tienen mejores texturas usando una Nvidia que una AMD. XD XD
yo soy ignorante del tema . ademas que esto paso hace años

tuve una nvidia y una radeon y los juegos extrañamente se miraban los colores mas oscuros en la radeon

[idea]
Cyborg_Ninja escribió:
PSX22 escribió:
Mayban36 escribió:
De toda esa biblia me he leido una linea solo y era una barbaridad de la desinformacion de nuevo


Cuanta educación, gracias.

Sigo esperando esas demostraciones de juegos que tienen mejores texturas usando una Nvidia que una AMD. XD XD




He apuntado a todo lo que ponias incorrecto pero si ni buscar te interesa por ti mismo, te presento la tecnologia para que nonte esfuerces


Es de hecho una noticia antigua


https://videocardz.com/newz/nvidia-neur ... ess-memory



No eres al unico al que he leido decir cosas que no son como que la memoria de ambas era igual de buena y tras presentarle que no es lo mismo gddr6 que gddr6x al menos no ha respondido dandose cabezazos contra la pared y eso te impide avanzar en conocimientos.

Si mañana amd saca gddr8 exclusiva yo lo voy a decir y no voy a defender a nvidia si no toca.


A dia de hoy amd no gana en nada salvo en rasterizado bruto/euro y nadie puede demostrar lo contrario
@PSX22 NTC no se está usando, es una prueba de concepto que no ha llegado a ningún sitio por ahora. Lo cual desmiente que los juegos se vean mejor en una nVidia, ya que actualmente no se está usando en ninguna parte.

Y es un parche puesto precisamente tras sacar una gama entera de gráficas bastante limitadas en cuanto a VRAM. Puedes usar toda la compresión que quieras (cosa que NO OCURRE a día de hoy), para paliar la falta de VRAM en ciertos momentos, pero esa compresión no viene gratis, tardas casi el doble de tiempo en cargar el resultado final:

https://www.tomshardware.com/news/nvidi ... ion-method

Indeed, images demonstrated by Nvidia clearly show that NTC is better than traditional Block Coding-based technologies. However, Nvidia admits that its method is slower than traditional methods (it took a GPU 1.15 ms to render a 4K image with NTC textures and 0.49 ms to render a 4K image with BC textures), but it provides 16x more texels albeit with stochastic filtering.
@Mr.Gray Fox


Nunca he dicho que los juegos se vean mejor, sino que las texturas se ven mejor y la tecnologia es mejor, que se use o no no nos importa a nadie,el debate es quien tiene mejor grafica netamente.


Y tampoco es muy dificil de imaginar que si tienes algo mejor pueda aplicarse a usos reales que si no lo tienes


Es totalmente falso que esa tecnologia sea un parche, da mas calidad ocupando menos, cuando se use la 5090 va a usarla y no por falta de vram xd


Otra falsedad es que actualmente nvidia usa la misma memoria, usa menos y no neceista compresión avanzada, para hacerlo, usan la normal pero es distinta como se muestra en nvidia, es algo que hoy puedes comprobar con una de cada y mismos ajustes graficos


Simplemente la reserva de vram por el driver es distinta y no es raro que amd use 1-2GB extra
Mr.Gray Fox escribió:@PSX22 NTC no se está usando, es una prueba de concepto que no ha llegado a ningún sitio por ahora. Lo cual desmiente que los juegos se vean mejor en una nVidia, ya que actualmente no se está usando en ninguna parte.

Y es un parche puesto precisamente tras sacar una gama entera de gráficas bastante limitadas en cuanto a VRAM. Puedes usar toda la compresión que quieras (cosa que NO OCURRE a día de hoy), para paliar la falta de VRAM en ciertos momentos, pero esa compresión no viene gratis, tardas casi el doble de tiempo en cargar el resultado final:

https://www.tomshardware.com/news/nvidi ... ion-method

Indeed, images demonstrated by Nvidia clearly show that NTC is better than traditional Block Coding-based technologies. However, Nvidia admits that its method is slower than traditional methods (it took a GPU 1.15 ms to render a 4K image with NTC textures and 0.49 ms to render a 4K image with BC textures), but it provides 16x more texels albeit with stochastic filtering.



Nada, déjalo. El es feliz en su ignorancia.

Las texturas no se ven mejor en Nvidia. Fin. Es acojonante que mientras reconoce que algo NO se utiliza, a la vez SÍ se utiliza y se ven mejor porque patatas. Este es lo que llevo diciendo desde el principio, ha oído campanas y no sabe por dónde.

Son las texturas de schrödinger.
@PSX22 Vale, vamos a ponernos quisquillosos. Dices que las texturas se ven mejor, cuando ACTUALMENTE NTC no se está usando en ninguna parte por ser tremendamente costoso comparado con los métodos más tradicionales. Te he pasado un enlace de tomshardware (página que junto con anandtech son de lo más fiable que existe) pero recuerdo haber visto en algún sitio que esa misma penalización de tiempos era con las pruebas en una 4090. Si la gráfica más potente del mercado de consumo tarda el doble de tiempo en procesar texturas, ya te imaginarás lo que tardarán el resto de las 4000.


Nunca he dicho que los juegos se vean mejor, sino que las texturas se ven mejor y la tecnologia es mejor, que se use o no no nos importa a nadie,el debate es quien tiene mejor grafica netamente.


Vuelves a lo mismo, las texturas se ven mejor y la tecnología es mejor. Pero ya te he dicho que no se usa en ninguna parte, ni se la espera. Dame pruebas, una prueba a ciegas en la que se vea que una gráfica de AMD muestra texturas peor que una de nVidia. Y no me vale un paper de NTC, quiero pruebas REALES.

Y tampoco es muy dificil de imaginar que si tienes algo mejor pueda aplicarse a usos reales que si no lo tienes


Cuando se usen, que ya veremos si se usan, veremos la diferencia. Mientras tanto, me remito al refranero sobre tener un tío en Alcalá, que ni tiene tio ni tiene nah.

Es totalmente falso que esa tecnologia sea un parche, da mas calidad ocupando menos, cuando se use la 5090 va a usarla y no por falta de vram xd


Da más calidad, ocupando menos, y con un coste computacional mayor. Con lo cual te quedas casi en lo mismo, las únicas gráficas que van a poder usarlo sin sufrir demasiado en rendimiento serán precisamente las que no tienen ese problema. Así que sirve para realmente poco en apartado de juegos.

Otra falsedad es que actualmente nvidia usa la misma memoria, usa menos y no neceista compresión avanzada, para hacerlo, usan la normal pero es distinta como se muestra en nvidia, es algo que hoy puedes comprobar con una de cada y mismos ajustes graficos


De nuevo, pruebas a ciegas. nVidia usa menos VRAM, porque sus modelos de gráficas vienen con menos VRAM y los motores gráficos convencionales (UE y Unity mayormente) siempre reservan ligeramente por encima de lo que realmente necesitan. Cosas de no picarse uno mismo un motor gráfico, ganas en tiempo de desarrollo pero lo pierdes en optimización en ocasiones. Tampoco es que sea experto en esto, ya que mi conocimiento programando un motor gráfico desde 0 ha sido bastante guiado y hay muchas cosas que no entiendo realmente en cuanto pasamos al 3D.

Simplemente la reserva de vram por el driver es distinta y no es raro que amd use 1-2GB extra


Esto no te lo discuto, el uso de VRAM de base en AMD es más alto incluso en escritorio de Windows, pero depende enormemente de la gestión del SO. Al margen de juegos, hay modelos de IA que cargados en mi gráfica entran o no dependiendo del SO en el que me encuentre, y siempre a favor de GNU/Linux.


@Cyborg_Ninja Si ya lo veo, pero me sienta hasta mal cuando se da información errónea, porque queda en el foro y si no se rebate puede venir cualquiera luego y tomarlo como válido sin pararse a comparar. Es innegable que nVidia tiene la delantera en el ámbito tecnológico a dia de hoy, pero tampoco hace magia negra. En raster puro y duro no hay diferencia alguna entre lo que saca por pantalla una u otra gráfica.

La 4090 es una bestia inalcanzable para AMD a día de hoy. Ya veremos la siguiente generación, pero todo apunta a que seguirá la misma ruta, AMD por detrás y nVidia con gráficas de 2000€ sin rival alguno.
Mr.Gray Fox escribió:@PSX22 Vale, vamos a ponernos quisquillosos. Dices que las texturas se ven mejor, cuando ACTUALMENTE NTC no se está usando en ninguna parte por ser tremendamente costoso comparado con los métodos más tradicionales. Te he pasado un enlace de tomshardware (página que junto con anandtech son de lo más fiable que existe) pero recuerdo haber visto en algún sitio que esa misma penalización de tiempos era con las pruebas en una 4090. Si la gráfica más potente del mercado de consumo tarda el doble de tiempo en procesar texturas, ya te imaginarás lo que tardarán el resto de las 4000.


Nunca he dicho que los juegos se vean mejor, sino que las texturas se ven mejor y la tecnologia es mejor, que se use o no no nos importa a nadie,el debate es quien tiene mejor grafica netamente.


Vuelves a lo mismo, las texturas se ven mejor y la tecnología es mejor. Pero ya te he dicho que no se usa en ninguna parte, ni se la espera. Dame pruebas, una prueba a ciegas en la que se vea que una gráfica de AMD muestra texturas peor que una de nVidia. Y no me vale un paper de NTC, quiero pruebas REALES.

Y tampoco es muy dificil de imaginar que si tienes algo mejor pueda aplicarse a usos reales que si no lo tienes


Cuando se usen, que ya veremos si se usan, veremos la diferencia. Mientras tanto, me remito al refranero sobre tener un tío en Alcalá, que ni tiene tio ni tiene nah.

Es totalmente falso que esa tecnologia sea un parche, da mas calidad ocupando menos, cuando se use la 5090 va a usarla y no por falta de vram xd


Da más calidad, ocupando menos, y con un coste computacional mayor. Con lo cual te quedas casi en lo mismo, las únicas gráficas que van a poder usarlo sin sufrir demasiado en rendimiento serán precisamente las que no tienen ese problema. Así que sirve para realmente poco en apartado de juegos.

Otra falsedad es que actualmente nvidia usa la misma memoria, usa menos y no neceista compresión avanzada, para hacerlo, usan la normal pero es distinta como se muestra en nvidia, es algo que hoy puedes comprobar con una de cada y mismos ajustes graficos


De nuevo, pruebas a ciegas. nVidia usa menos VRAM, porque sus modelos de gráficas vienen con menos VRAM y los motores gráficos convencionales (UE y Unity mayormente) siempre reservan ligeramente por encima de lo que realmente necesitan. Cosas de no picarse uno mismo un motor gráfico, ganas en tiempo de desarrollo pero lo pierdes en optimización en ocasiones. Tampoco es que sea experto en esto, ya que mi conocimiento programando un motor gráfico desde 0 ha sido bastante guiado y hay muchas cosas que no entiendo realmente en cuanto pasamos al 3D.

Simplemente la reserva de vram por el driver es distinta y no es raro que amd use 1-2GB extra


Esto no te lo discuto, el uso de VRAM de base en AMD es más alto incluso en escritorio de Windows, pero depende enormemente de la gestión del SO. Al margen de juegos, hay modelos de IA que cargados en mi gráfica entran o no dependiendo del SO en el que me encuentre, y siempre a favor de GNU/Linux.



Totalmente de acuerdo, pero es que por añadir, TODAS las páginas de benchmarks o de análisis técnicos han dicho por ejemplo que la 3070 (las de 8GB en general) se ha encontrado problemas de VRAM en multitud de juegos actuales sin que tampoco se vaya a resoluciones altísimas.

Está claro que una 3070 por ejemplo es mejor que una 3060 aunque tenga 4GB más de VRAM, porque la diferencia de potencia es relativamente grande y esos 4GB extras aunque le pueden venir bien en algunos juegos que saturen muy rápido la VRAM pueden venir bien, pero el déficit de potencia frente a la 3070 la hace peor opción en casi cualquier circunstancia.

Ahora, si comparas con una 6700XT, que tiene prácticamente la misma potencia en raster, ha mostrado defenderse mejor en muchos juegos actuales y encima era más barata... ya la cosa cambia.


Y esto no lo he dicho antes, pero otra cosa importante es que cuando te falta potencia... pues oye, el framerate baja y hoy día con freesync/gsync y toda la tecnología de frecuencia variable no es muy traumático, pero una VRAM saturada o al borde de la saturación te mete unos tirones que flipas.


Tener más VRAM en las mismas gamas es un punto importante para AMD, ya podemos entrar en si las Nvidia están equilibradas en ese sentido (al principio suelen estarlo, pero conforme pasa el tiempo inevitablemente envejecen algo peor), y nadie va a negar que si quieres Ray Tracing, cada vez más común, Nvidia es una opción mucho mejor, de hecho aquí la diferencia es abismal.


Pero lo de las texturas mejores y que la VRAM no sirva para nada o que la memoria de las RTX 4000 marquen alguna diferencia importante es una película que se ha montado este señor.
@Mr.Gray Fox


Le puedes dar las vueltas que quieras la tecnologia es mejor, dlss no esta en todos los juegos tampoco pero la gpu nvidia es mejor, como si la dejas precintada la gpu, sigue siendo mejor. El poder esta ahi. Y en cualquier momento puede despertar , en amd no va a pasar.



Repito en nvidia el uso en juegos actuales la Vram es menor, que alguien explique porque si es el mismo juego
El trolleo esta intenso🤣🤣🤣
PSX22 escribió:@Mr.Gray Fox


Le puedes dar las vueltas que quieras la tecnologia es mejor, dlss no esta en todos los juegos tampoco pero la gpu nvidia es mejor, como si la dejas precintada la gpu, sigue siendo mejor. El poder esta ahi. Y en cualquier momento puede despertar , en amd no va a pasar.


FineWine™. La misma historia de siempre. El poder está ahí, nadie lo usa, pero de verdad de la buena que es lo mejor y eso hace que la gráfica sea mejor. Esto escribiste tu mismo hace un par de comentarios:

Basta ya de comprar para dentro de 5 años porque lo mas normal es que ya tengas un PC nuevo


Pues eso. No alegues que nVidia es mejor cargando texturas soltando lo del NTC, cuando nadie lo usa, y para cuando sea una realidad habrá 3 gamas por encima, y software que hará que esa tarjeta sea chatarra. Aparte de lo ya mencionado, usar NTC tiene un coste muy alto computacionalmente ya incluso a día de hoy, donde hasta a una 4090 le lleva más del doble de tiempo cargar la textura. Imagina en gamas más bajas.

Repito en nvidia el uso en juegos actuales la Vram es menor, que alguien explique porque si es el mismo juego


Ya te lo he explicado:

Simplemente la reserva de vram por el driver es distinta y no es raro que amd use 1-2GB extra

Esto no te lo discuto, el uso de VRAM de base en AMD es más alto incluso en escritorio de Windows, pero depende enormemente de la gestión del SO. Al margen de juegos, hay modelos de IA que cargados en mi gráfica entran o no dependiendo del SO en el que me encuentre, y siempre a favor de GNU/Linux.


A día de hoy, no conozco ningún software que separe el uso de VRAM entre procesos de una forma clara. Por lo que si de entrada el uso de VRAM de AMD en Windows es elevado, en juegos lo será también. En otras tareas y en otros SO la diferencia de VRAM no es tan acusada y se pueden ver valores que entren dentro de un rango de 100-200MB de margen.
PSX22 escribió:@Mr.Gray Fox


Le puedes dar las vueltas que quieras la tecnologia es mejor, dlss no esta en todos los juegos tampoco pero la gpu nvidia es mejor, como si la dejas precintada la gpu, sigue siendo mejor. El poder esta ahi. Y en cualquier momento puede despertar , en amd no va a pasar.



Repito en nvidia el uso en juegos actuales la Vram es menor, que alguien explique porque si es el mismo juego


Esa frase me acaba de recordar a esto.
https://www.elotrolado.net/hilo_poco-creible-pero-cierto-es_708751
@Mr.Gray Fox


Pero tu como te puedes tomar en serio a amd si no tiene en la era de la IA una solucion IA por hardware?


Pero que hasta intel la supera tienen Xess con hardware, amd usa lo mismo en u a 7900xtx que en steam deck FSR todo software xd
PSX22 escribió:@Mr.Gray Fox


Pero tu como te puedes tomar en serio a amd si no tiene en la era de la IA una solucion IA por hardware?


Pero que hasta intel la supera tienen Xess con hardware, amd usa lo mismo en u a 7900xtx que en steam deck FSR todo software xd


No cambies de tema, y desde luego no pongas palabras en mi boca que yo no he dicho. Tampoco mientas, porque AMD sí tiene aceleración de IA, y te lo demuestro cuando quieras hasta en Windows. ¿Te suena ROCm? Porque llevo ya unos cuantos meses usando Stable Diffusion en local con mi gráfica, cargando LLMs para trabajar con chatbots en local y no tener que depender de GPT3.5 cuando la información es sensible. Y modelos relativamente grandes, donde la cantidad de VRAM es algo que te permite cargar o no un modelo.

Y si quieres llevarlo al terreno de juegos, tanto FSR como XeSS son soluciones de SOFTWARE, por eso se pueden usar en todas las gráficas disponibles del mercado. Afirmas categoricamente que el DLSS es superior, y lo es, con varios peros:

1º Es una solución propietaria, lo que obliga a que si quieres usarla, te toca pasar por el aro y los precios de nVidia.
2º FSR es abierto, y CUALQUIER desarrollador puede modificarlo para mejorarlo según los parámetros de su juego. Puedes comprobarlo mirando análisis del No Man's Sky, donde la implementación del FSR 2.0 es algo personalizado y mejora notablemente. Otra cosa es que otros estudios usen FSR como un parche que automáticamente te hace ganar rendimiento a costa de perder calidad.

Aparte, como punto final al asunto de FSR (que entiendo por qué lo sacas, te has quedado sin argumentos con el tema de las texturas y estás haciendo una huida hacia adelante tratando de buscar otra cosa sobre la que quejarte), he pasado incontables horas probando configuraciones tanto de XeSS como de FSR en varias zonas de Cyberpunk 2077, y lo que he llegado a ver no es que XeSS lo haga mejor, es que su modo de máxima calidad parte de una resolución superior al modo de más calidad de FSR. Conforme vas bajando los niveles de reescalado, parece que van interpolándose entre ellos.

La cosa sería así, de más calidad a menos (no recuerdo exactamente los nombres de los presets que usa por ejemplo Cyberpunk 2077)
XeSS -> Ultra calidad
FSR -> Calidad
XeSS -> Calidad
FSR -> Equilibrado
XeSS -> Equilibrado
FSR -> Rendimiento
XeSS -> Rendimiento
XeSS -> Ultra rendimiento
FSR -> Ultra rendimiento

Ya no me meto en el tema de FSR3, no he podido probarlo ya que los juegos que lo implementan no me interesan lo más mínimo. Cuando tenga datos sobre los que opinar, lo haré, mientras tanto, no voy a hablar de lo que no he podido probar en primera persona.
PSX22 escribió:@Mr.Gray Fox


Pero tu como te puedes tomar en serio a amd si no tiene en la era de la IA una solucion IA por hardware?


Pero que hasta intel la supera tienen Xess con hardware, amd usa lo mismo en u a 7900xtx que en steam deck FSR todo software xd


Compañero, sube el nivel de trolleo🤣🤣🤣

Si puede tomar en serio a AMD lo mismo que a la compañia que sus graficas se queman y dice que es por que sus compradores no les da la cabeza para poner bien el conector.....
Mr.Gray Fox escribió:
PSX22 escribió:@Mr.Gray Fox


Pero tu como te puedes tomar en serio a amd si no tiene en la era de la IA una solucion IA por hardware?


Pero que hasta intel la supera tienen Xess con hardware, amd usa lo mismo en u a 7900xtx que en steam deck FSR todo software xd


No cambies de tema, y desde luego no pongas palabras en mi boca que yo no he dicho. Tampoco mientas, porque AMD sí tiene aceleración de IA, y te lo demuestro cuando quieras hasta en Windows. ¿Te suena ROCm? Porque llevo ya unos cuantos meses usando Stable Diffusion en local con mi gráfica, cargando LLMs para trabajar con chatbots en local y no tener que depender de GPT3.5 cuando la información es sensible. Y modelos relativamente grandes, donde la cantidad de VRAM es algo que te permite cargar o no un modelo.

Y si quieres llevarlo al terreno de juegos, tanto FSR como XeSS son soluciones de SOFTWARE, por eso se pueden usar en todas las gráficas disponibles del mercado. Afirmas categoricamente que el DLSS es superior, y lo es, con varios peros:

1º Es una solución propietaria, lo que obliga a que si quieres usarla, te toca pasar por el aro y los precios de nVidia.
2º FSR es abierto, y CUALQUIER desarrollador puede modificarlo para mejorarlo según los parámetros de su juego. Puedes comprobarlo mirando análisis del No Man's Sky, donde la implementación del FSR 2.0 es algo personalizado y mejora notablemente. Otra cosa es que otros estudios usen FSR como un parche que automáticamente te hace ganar rendimiento a costa de perder calidad.

Aparte, como punto final al asunto de FSR (que entiendo por qué lo sacas, te has quedado sin argumentos con el tema de las texturas y estás haciendo una huida hacia adelante tratando de buscar otra cosa sobre la que quejarte), he pasado incontables horas probando configuraciones tanto de XeSS como de FSR en varias zonas de Cyberpunk 2077, y lo que he llegado a ver no es que XeSS lo haga mejor, es que su modo de máxima calidad parte de una resolución superior al modo de más calidad de FSR. Conforme vas bajando los niveles de reescalado, parece que van interpolándose entre ellos.

La cosa sería así, de más calidad a menos (no recuerdo exactamente los nombres de los presets que usa por ejemplo Cyberpunk 2077)
XeSS -> Ultra calidad
FSR -> Calidad
XeSS -> Calidad
FSR -> Equilibrado
XeSS -> Equilibrado
FSR -> Rendimiento
XeSS -> Rendimiento
XeSS -> Ultra rendimiento
FSR -> Ultra rendimiento

Ya no me meto en el tema de FSR3, no he podido probarlo ya que los juegos que lo implementan no me interesan lo más mínimo. Cuando tenga datos sobre los que opinar, lo haré, mientras tanto, no voy a hablar de lo que no he podido probar en primera persona.




Te está cambiando de tema porque se ha metido en un berenjenal donde era prácticamente imposible salir sin hacer el ridículo. Tenía dos opciones: reconocer que ha metido la pata o pegar una huida hacia adelante tremenda y montarse una película todavía más tremenda. Resumiendo:


Forero dice sin ninguna prueba ni evidencia que las texturas en Nvidia "se ven mejor". Así, sin más.

Se le dice información y explicaciones de donde ha sacado algo que a todas luces no es cierto.

Repite durante varios mensajes que nos informemos, que se ven mejor, que leamos.

Después de varios mensajes sin dar una sola explicación coherente ni prueba de lo que ha dicho, pone un enlace a una tecnología de Nvidia que tiene más contras que pros, que evidentemente ni se ha molestado en leer detenidamente y que además NO se está utilizando como prueba de que "informaros, las texturas se ven mejor en Nvidia". Es decir, se ven mejor y lo ha demostrado con una tecnología que NO se ha utilizado.

Da su brazo a torcer parcialmente y dice que no, que no se ha utilizado PERO QUE EL PODER ESTÁ AHÍ, y sigue manteniendo que las texturas sen mejor por una tecnología que está ahi pero no se ha utilizado.



Es que el chiste se cuenta solo. Es de esas situaciones que uno se pregunta "pa qué". Para qué voy a perder el tiempo, el chaval no va a reconocer que las texturas solo se ven mejor en gráficas Nvidia respecto a AMD en su imaginación. Todo por no reconocer un punto conocido y reconocido que es mejor en AMD, y es que suelen tener más memoria y en algunos casos envejecen mejor.
Lo de que las texturas se ven mejor en una gráfica u o en otra me recuerda a los tiempos de las Voodoo. Que ya ha llovido.
Me recuerda al poder de la nube de xbox one [qmparto] [qmparto]
La gente se queja que AMD no vende porque pone mismo precios que Nvidia ,pero si vas a las tiendas en la mayoría de gamas están muy por debajo en precios en GPU equivalentes o superiores, la 7900GRE por ejemplo tiene un precio/rendimiento y la gente preferire pagar más por una 4070S.

Esto nos lleva que la gente compra simplemente por marca, da igual si hay mejores alternativas , y eso será imposible superar para AMD a menos que la marca se devalúe como le pasó Intel en CPU que se durmieron y tropezaron, aprovechándolo AMD, aun así Intel todavía vende bien por marca. En Nvidia veo muy difícil que tropiezen con alguna arquitectura, y mientras eso no pase por más que AMD saque algo mejor y mitad de precio, Nvidia seguirá vendiendo más.

Yo es que no le veo sentido que una RTX3060 este en top de Steam y no uns 6700 XT que se puede encontrar al mismo precio con mejor rendimiento y mas Vram, pero es que la 6700xt no entra en el Top 10 de steam....
es de entender el compañero tiene una 4070 por eso la defiende a capa y espada

como cuando le dicen a un tipo tu mujer es fea! claro el tipo salta la defiende diciendo que es guapa y con toda razon pues es su mujer , se la esta montando de lo rico :Ð
Pues no es de entender que por tener algo, ya sea lo mejor del mundo, eso cuando eres un niño es normal, de una persona adulta es simplemente ser un Pedro Sanchez mas de la vida🤣🤣🤣🤣

Ni que las empresas fueran a mirar por mi como para defenderlas a diestra o siniestra, para ellas todos somos carteras que vaciar.......
ScrollSpeed escribió:La gente se queja que AMD no vende porque pone mismo precios que Nvidia ,pero si vas a las tiendas en la mayoría de gamas están muy por debajo en precios en GPU equivalentes o superiores, la 7900GRE por ejemplo tiene un precio/rendimiento y la gente preferire pagar más por una 4070S.

Esto nos lleva que la gente compra simplemente por marca, da igual si hay mejores alternativas , y eso será imposible superar para AMD a menos que la marca se devalúe como le pasó Intel en CPU que se durmieron y tropezaron, aprovechándolo AMD, aun así Intel todavía vende bien por marca. En Nvidia veo muy difícil que tropiezen con alguna arquitectura, y mientras eso no pase por más que AMD saque algo mejor y mitad de precio, Nvidia seguirá vendiendo más.

Yo es que no le veo sentido que una RTX3060 este en top de Steam y no uns 6700 XT que se puede encontrar al mismo precio con mejor rendimiento y mas Vram, pero es que la 6700xt no entra en el Top 10 de steam....


de eso no hay duda y nos pasa a todos. Yo aún teniendo una 7900 xt he estado a punto de comprar la 4080 y al final es lo que dices, marquitis y el hecho de “es que nvidia..”
eduardo+++ escribió:es de entender el compañero tiene una 4070 por eso la defiende a capa y espada

como cuando le dicen a un tipo tu mujer es fea! claro el tipo salta la defiende diciendo que es guapa y con toda razon pues es su mujer , se la esta montando de lo rico :Ð


Nah, pero esas actitudes se suelen pasar cuando se alcanza la madurez mínima.

Yo tengo una 7800XT y yo se que es meterle Ray Tracing a un juego y se queda en una 4060 con mucha suerte. También se que el DLSS tiene mejores resultados que el FSR.
Cyborg_Ninja escribió:
eduardo+++ escribió:es de entender el compañero tiene una 4070 por eso la defiende a capa y espada

como cuando le dicen a un tipo tu mujer es fea! claro el tipo salta la defiende diciendo que es guapa y con toda razon pues es su mujer , se la esta montando de lo rico :Ð


Nah, pero esas actitudes se suelen pasar cuando se alcanza la madurez mínima.

Yo tengo una 7800XT y yo se que es meterle Ray Tracing a un juego y se queda en una 4060 con mucha suerte. También se que el DLSS tiene mejores resultados que el FSR.

¿Pero no os dais cuenta que os está troleando?Pero si dijo que las nvidia tienen un poder oculto que en cualquier momento se desata...
Esto no tiene ya mucho recorrido. XD
@dicker31 te sorprenderia la de gente que aunque para nosotros es un trolleo, lo dicen completamente en serio🤣🤣🤣🤣
Mi opinión. AMD se fue de madre cuando a partir del 2015, Su CEO cambió su política de no vender barato. A partir de ahí, como mucho competía con la gama media. La gama alta era basura y cara para lo que ofrecía. Le salvaron los muebles las dos crisis mineras que llegaron después.

Si bien ya no estamos en tiempos de la fury y ésas. Siguen por debajo. Tanto en rendimiento, como en software y tampoco son nada baratas de salida.

Recuerdo en 2013, como una rebajada HD 7950 boost con algo de overclock, rendía similar a la gtx 670, que costaba 150€ más. Eso ya no ocurre, a no ser que AMD venda poco o nada.

Si vendes algo un 20% más barato, pero sin RT real, sin cuda.., Pues el que se deja dinero, va por lo seguro.

Además en software van por detrás. Todas tienen drivers malos. Pero AMD se toma mucho tiempo en reparar los fallos. Además, su soporte es mayor. Una gtx 970 sigue teniendo soporte en drivers recientes. Incluso la 750 ti. Pero AMD ya quitó a las RX 400 y 500 y pasó a legacy. Las de la época de la 970, incluso hace 3 años.

AMD es mejor en software únicamente en linux. Pero dudo que la mayoría se compre una 7900xt para jugar ahí la verdad. [+risas]

Nvidia es mejor en rendimiento, tecnologías y sobre todo saber venderse. Además su nicho de mercado es ya gama x60 para arriba. Pero sus mayores ingresos son por IA

AMD va mejor en apus. Así lo demuestra con las consolas, steam deck y chips gráficos integrados. Creo que AMD debería centrarse más en ese nicho de mercado, que no competir contra Nvidia, con gráficas estufas de miles de euros.
@Duendeverde Si eso mismo comento poco más arriba, que AMD parece estar echando el resto en las APUs. En ese segmento no tiene rival, ya que nVidia no tiene productos (por motivos obvios) e Intel ya sabemos lo que tiene.

En algo debe notarse sus años de colaboración en consolas diseñando SoCs.
Duendeverde escribió:Mi opinión. AMD se fue de madre cuando a partir del 2015, Su CEO cambió su política de no vender barato. A partir de ahí, como mucho competía con la gama media. La gama alta era basura y cara para lo que ofrecía. Le salvaron los muebles las dos crisis mineras que llegaron después.

Si bien ya no estamos en tiempos de la fury y ésas. Siguen por debajo. Tanto en rendimiento, como en software y tampoco son nada baratas de salida.

Recuerdo en 2013, como una rebajada HD 7950 boost con algo de overclock, rendía similar a la gtx 670, que costaba 150€ más. Eso ya no ocurre, a no ser que AMD venda poco o nada.

Si vendes algo un 20% más barato, pero sin RT real, sin cuda.., Pues el que se deja dinero, va por lo seguro.

Además en software van por detrás. Todas tienen drivers malos. Pero AMD se toma mucho tiempo en reparar los fallos. Además, su soporte es mayor. Una gtx 970 sigue teniendo soporte en drivers recientes. Incluso la 750 ti. Pero AMD ya quitó a las RX 400 y 500 y pasó a legacy. Las de la época de la 970, incluso hace 3 años.

AMD es mejor en software únicamente en linux. Pero dudo que la mayoría se compre una 7900xt para jugar ahí la verdad. [+risas]

Nvidia es mejor en rendimiento, tecnologías y sobre todo saber venderse. Además su nicho de mercado es ya gama x60 para arriba. Pero sus mayores ingresos son por IA

AMD va mejor en apus. Así lo demuestra con las consolas, steam deck y chips gráficos integrados. Creo que AMD debería centrarse más en ese nicho de mercado, que no competir contra Nvidia, con gráficas estufas de miles de euros.



Menudo cliché de comentario.

- AMD tiene rendimiento equivalente en todas las gamas desde RDNA 2 , menos en la RTX4090.

- AMD tiene mejores precios en todas gamas, incluso la 7900 GRE se puede encontrar abajo de los $550 que es una diferencia de más de $150 respecto auna 4070ti.

- Nunca he entendido el mito de los Drivers, he tenido Nvidia toda la vida y actualmente tengo una AMD, y en interfaz los Drivers de AMD se comen a los de Nvidia en funcionalidades los dos tienen exactamente lo mismo, no hecho de menos ninguna funcionalidad de Nvidia y en estabilidad no he tenido ningún problema.
@ScrollSpeed Te comento un poco el mito de los drivers, que no es tan mito lo que pasa es que a dia de hoy funcionan bastante bien.

Los drivers de AMD tradicionalmente han ido a remolque de nVidia, siempre han requerido varias iteraciones para ponerse al nivel. Hay casos curiosos como la GT1030 vs la RX550 que si ves las primeras comparativas parecía que la GT1030 rendía más pero a medida que AMD refinaba drivers, la RX550 la superó. A día de hoy está claro que es mejor tarjeta, pero no fue la primera impresión y todo por culpa de los drivers.

La moda ahora es el FSR y el DLSS, donde una vez más nVidia ha ganado ventaja. Con el tiempo estoy seguro que ambas soluciones estarán al mismo nivel, pero siempre es nVidia la que golpea primero.

A eso se refiere el famoso "problema" de drivers.
AxelStone escribió:@ScrollSpeed Te comento un poco el mito de los drivers, que no es tan mito lo que pasa es que a dia de hoy funcionan bastante bien.

Los drivers de AMD tradicionalmente han ido a remolque de nVidia, siempre han requerido varias iteraciones para ponerse al nivel. Hay casos curiosos como la GT1030 vs la RX550 que si ves las primeras comparativas parecía que la GT1030 rendía más pero a medida que AMD refinaba drivers, la RX550 la superó. A día de hoy está claro que es mejor tarjeta, pero no fue la primera impresión y todo por culpa de los drivers.

La moda ahora es el FSR y el DLSS, donde una vez más nVidia ha ganado ventaja. Con el tiempo estoy seguro que ambas soluciones estarán al mismo nivel, pero siempre es nVidia la que golpea primero.

A eso se refiere el famoso "problema" de drivers.

Hay algo que no tienes en cuenta, que las gráficas de NVIDIA tienen mejor hardware para Ray Tracing, que eso por mucho que mejore un driver, no lo va a igualar solo por software.

Saludos.
@javier español Claro hombre jeje, diferencias hardware ya no entran dentro de los drivers XD .

De todos modos en eso que comentas rompo pequeña lanza a favor de AMD en un aspecto. El RT incluso es tarjetas nVidia resulta excesivamente tragón, por lo que no me parece un extra atractivo. En cambio las GPUs AMD a igualdad de rendimiento suelen ser más económicas, y eso creo que si es un extra atractivo.

Pienso que nVidia engorda precios aprovechando su posición dominante.
Hay mercado para todos los gustos, por lo tanto Ray Tracing es un plus, así como CUDA para edición, no todo en la vida es gaming y también van muy bien para IA, RV, etc...

Saludos.
AxelStone escribió:@ScrollSpeed Te comento un poco el mito de los drivers, que no es tan mito lo que pasa es que a dia de hoy funcionan bastante bien.

Los drivers de AMD tradicionalmente han ido a remolque de nVidia, siempre han requerido varias iteraciones para ponerse al nivel. Hay casos curiosos como la GT1030 vs la RX550 que si ves las primeras comparativas parecía que la GT1030 rendía más pero a medida que AMD refinaba drivers, la RX550 la superó. A día de hoy está claro que es mejor tarjeta, pero no fue la primera impresión y todo por culpa de los drivers.

La moda ahora es el FSR y el DLSS, donde una vez más nVidia ha ganado ventaja. Con el tiempo estoy seguro que ambas soluciones estarán al mismo nivel, pero siempre es nVidia la que golpea primero.

A eso se refiere el famoso "problema" de drivers.


Yo no veo ningún problema en lo que comentas, que AMD afine sus arquitectura vía drivers con el tiempo, es algo positivo no negativo, si una GPU default iguala a la de la competencia y con el tiempo se extrae más rendimiento es algo positivo. Y el DLSS y FSR no se que tendrán que ver con los drivers.

Actualmente los drivers de AMD van bien, todo esos mitos parecen del 2005, solo falta añadir que las AMD se calientan más para tener el pack de mitos completos.
Pues hombre, decir que la xtx tiene más problemas con el hot spot no es faltar a la verdad, igual que decir que las 4090 petan en la conexión eléctrica jeje.
Hola una 7900gre con overclock (GPU y RAM)se q casi iguala a la 7900xt,
Es la mejor gráfica actualmente calidad/precio de esta manera?

https://videocardz.com/newz/amd-enables-memory-overclocking-on-radeon-rx-7900-gre

Imagen
Saludos!
ziu escribió:Hola una 7900gre con overclock (GPU y RAM)se q casi iguala a la 7900xt,
Es la mejor gráfica actualmente calidad/precio de esta manera?

https://videocardz.com/newz/amd-enables-memory-overclocking-on-radeon-rx-7900-gre

Imagen
Saludos!



Para mi, si, es la mejor. Y si hubiera estado cuando yo me compré la 7900 XT, hubiera elegido la primera y me hubiera ahorrado 200€ y casi el mismo rendimiento. Tambien es verdad que con el mismo OC, la 7900 XT se despega mas aún.
MrKafka escribió:
ziu escribió:Hola una 7900gre con overclock (GPU y RAM)se q casi iguala a la 7900xt,
Es la mejor gráfica actualmente calidad/precio de esta manera?

https://videocardz.com/newz/amd-enables-memory-overclocking-on-radeon-rx-7900-gre

Imagen
Saludos!



Para mi, si, es la mejor. Y si hubiera estado cuando yo me compré la 7900 XT, hubiera elegido la primera y me hubiera ahorrado 200€ y casi el mismo rendimiento. Tambien es verdad que con el mismo OC, la 7900 XT se despega mas aún.

A mi también me parece la mejor calidad-precio.Pero tampoco es justo comparar una gpu con OC con otra de stock.Ademas la XT tiene 4 GB mas de VRAM,que para jugar puede que nunca te hagan falta pero si para otras tareas.
@TotalEvilDead

Tengo la 6800xt XFX y la 7900 XTX red devil, por mi experiencia con dichas graficas, puedo decir que el problema con el punto caliente no es problema realmente, simplemente son graficas diseñadas para alcanzar la máxima velocidad de reloj posible hasta los 110 grados de hot spot. Cuando llega a los 110 baja la frecuencia y se mantiene en dicha temperatura.
Superan por mucho el boost oficial de amd. En la 6800 xt de 2250 y en la 7900 xtx 2500, pudiendo llegar la 6800xt a 2600 y la 7900xtx a 2900. Si un usuario que no sabe de graficas amd las compra monta y usa sin ajustar nada, se asusta, pues por ejemplo la 7900 xtx sube su velocidad de boost mientras no pase de 110 grados pudiendo llegar a 3000 de frecuencia de reloj, cosa que según fabricante no es un problema. Ahora bien si como a mi no te gustan esas temperaturas, solo tienes que ponerle un tope al boost, yo la 7900 xtx la he puesto a 2660, 160 más que el boost oficial y no llega a 90 de hot spot.

Realmente pienso que AMD ha puesto un punto de estrangulamiento muy alto 110 grados que asustan, pero ellos son los ingenieros y ellos sabrán.

Una pena que AMD no venda más, la 7900 XTX red devil, es una bestia, quizás la ultima grafica AMD de gama alta que se fabrique.
@Silicio14mm Hola compañero, tienes el power limit subido? O simplemente ese ajuste lo tienes default? Yo tengo la 6800XT Red Dragon y la verdad que muy contento con ella; a ver qué saca AMD éste año y analizar si me merece la pena hacer un cambio.
@Silicio14mm

Hay muchos reportes afirmando que esos 110 grados son debidos a la degradación de la pasta térmica y de diseño, por lo que para mí es un problema. Además que pienso que si hay thermal throttling algo no va bien aunque te vendan unas velocidades inferiores.
Y volviendo a los 110 grados, seguros? Según ellos si, pero que es una temperatura muy alta no es una percepción del consumidor, es que lo es en comparación con lo demás.
Ojo que no digo que eso sea una chapuza, ojalá tuviera una 7900xtx, pero es un defecto probado y hay que decirlo. Igual que hay que decir que el conector de la 4090 es propenso a fallar por mucho que los fanáticos digan que el usuario lo conecta mal.
TotalEvilDead escribió:@Silicio14mm

Hay muchos reportes afirmando que esos 110 grados son debidos a la degradación de la pasta térmica y de diseño, por lo que para mí es un problema. Además que pienso que si hay thermal throttling algo no va bien aunque te vendan unas velocidades inferiores.
Y volviendo a los 110 grados, seguros? Según ellos si, pero que es una temperatura muy alta no es una percepción del consumidor, es que lo es en comparación con lo demás.
Ojo que no digo que eso sea una chapuza, ojalá tuviera una 7900xtx, pero es un defecto probado y hay que decirlo. Igual que hay que decir que el conector de la 4090 es propenso a fallar por mucho que los fanáticos digan que el usuario lo conecta mal.



Discrepo. La temperatura (el dato en si) es objetiva, pero la catalogación de alta, baja, peligrosa... es relativa al diseño. Si mides la temperatura de escape de un motor gasolina no puedes decir que es una burrada y peligrosa por la simple razón que en un diésel es mucho menor.
Yo me acuerdo de la vodoo 3 que literalmente te quemabas cuando tocabas el disipador, no se q temperatura llegaban pero más de 100 seguro [+risas]
Las que llegan a 110°C de temperatura son las que salieron defectuosas en la camara de vapor, por lo que no es algo normal, es un fallo reconocido por AMD.

Cualquiera que tenga una GPU con eso, que pida devolucion, deberian aceptarla sin rechistar en la tienda.
@ziu No necesitas una Voodoo 3 para quemarte, la tecnología hace tiempo que quema :) . Recuerdo estar haciendo el mod a una Master System 2 (ha llovido) que no recuerdo sin montaba disipación pasiva o sencillamente no montaba nada (un Z80 igual no necesita refrigerarse, como digo no lo recuerdo).

La consola llevaba un rato al uso y la abrí sin dejar que se enfriara. Sin querer rocé el procesador con el dedo y recuerdo quemarme a lo bestia. Nunca pensé que un Z80 podía calentarse tanto!


Que cada uno saque sus propias conclusiones

Tb se venden mas rtx así que es lógico que partan mas

Edit: ya me intento liar en el hilo del dragons dogma 2 con su cpu, no diferenciaba pcores y ecores y los metía todos en el mismo saco...dont feed...
@boarone

Saludos, el power limit es recomendable tenerlo subido, ya que lo que hace es dar la posibilidad a la GPU a consumir más Wat si lo necesita, esta claro que potencia el boost y la temperatura. Yo el limite a a temperatura lo pongo limitando el boost, el máximo de reloj, hasta obtener un rendimiento, temperatura y ruido que me gusten

Así que entra en juego configurar curva de ventiladores, power limit y reloj

Luego ya depende de tu caja, tu ventilación, el modelo y ensamblador. Yo te recomiendo tener la 6800xt a 2400 a más ya no escala el rendimiento y sube la temperatura.

hilo_amd-rdna3-rx-7000-gpu_2447149_s4950#p1754831257

TotalEvilDead

Tu te refieres a las 7900 xtx de amd con cámara de vapor que salieron con problemas, yo no estoy hablando de esa cagada que ya arreglaron, hablo de que si no le pones limite al reloj de la GPU el limite son los 110 grados.

La 7900 xtx esta diseñada para llegar a 110 grados, y da igual la pasta térmica, cuanto mejor este refrigerada mas frecuencia de reloj te dará hasta llegar a los 110 grados. El "problema" es que AMD adrenalin en default te deja un máximo de reloj de 2900, el driver para la 7900 xtx esta pensado para que la grafica de el máximo de reloj posible mientras no pase de 110 grados, ese es su diseño. Si no quieres temperaturas altas solo tienes que bajar la frecuencia máxima y ya esta. A 2500 que es el boost que da amd en su pagina la grafía es muy fresquita.

Recordar también que esos 110 grados de punto caliente son los 90 grados de rigor de gpu de toda la vida que mirábamos antes de que AMD diera la información del punto caliente.

Saludos, pasar buen día
Pues nada, seguid normalizando los fallos de fabricación:
https://www.techpowerup.com/review/amd- ... tx/36.html
73 grados les salen en esta review.
Yo desde luego no me gustaría tener el núcleo a 90 y el punto caliente a 110. Pero si a vosotros os da igual, pues nada.
Erre que erre.

Esta diseñado para alcanzar el estrangulamiento a 110.

Si pones el reloj al máximo que indica amd en su pagina, 2500 para la 7900 xtx, la grafica esta fresquita, no llega ni a 80 de hot spot, por eso yo la tengo a 2660, porque sigue siendo fresquita...

Repito
Si pones el reloj al máximo que indica amd en su pagina, 2500 para la 7900 xtx, la grafica esta fresquita, no llega ni a 80 de hot spot

Repito
Si pones el reloj al máximo que indica amd en su pagina, 2500 para la 7900 xtx, la grafica esta fresquita, no llega ni a 80 de hot spot

Repito
Si pones el reloj al máximo que indica amd en su pagina, 2500 para la 7900 xtx, la grafica esta fresquita, no llega ni a 80 de hot spot
166 respuestas
1, 2, 3, 4