Re : [RESOLU2] Ma config de merde, l'optimiser ou tout jeter ?
J'ai dû finir une bouteille de Chardonnay ce midi pour me remettre de l'achat de DDR3 par Jako en 2020 !
Nietzsche
Vous n’êtes pas identifié. Veuillez vous connecter ou vous inscrire.
Le Vrai Asile » Informatique » [RESOLU2] Ma config de merde, l'optimiser ou tout jeter ?
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
J'ai dû finir une bouteille de Chardonnay ce midi pour me remettre de l'achat de DDR3 par Jako en 2020 !
T'as dépensé la moitié du prix de mes barrette gros !
Seul truc qui est unique à Nvidia c'est leur api proprio de Ray tracing
Ils ont un truc genre CUDA maintenant AMD ?
Merci Besta pour ce bien bel résumé. Comme dit Alioch, Nvidia est loin loin devant avec CUDA pour le calcul scientifique sur lequel tout le monde est exclusivement formé. Ca va prendre des plombes à s'inverser ça imho.
pour le coup les app pro qui utilisent le hard dédié c'est pas mon truc.
Will AMD GPUs + ROCm ever catch up with NVIDIA GPUs + CUDA?
Not in the next 1-2 years. It is a three-way problem: Tensor Cores, software, and community.
AMD GPUs are great in terms of pure silicon: Great FP16 performance, great memory bandwidth. However, their lack of Tensor Cores or the equivalent makes their deep learning performance poor compared to NVIDIA GPUs. Packed low-precision math does not cut it. Without this hardware feature, AMD GPUs will never be competitive. Rumors show that some data center card with Tensor Core equivalent is planned for 2020, but no new data emerged since then. Just having data center cards with a Tensor Core equivalent would also mean that few would be able to afford such AMD GPUs, which would give NVIDIA a competitive advantage.
Let’s say AMD introduces a Tensor-Core-like-hardware feature in the future. Then many people would say, “But there is no software that works for AMD GPUs! How am I supposed to use them?” This is mostly a misconception. The AMD software via ROCm has come to a long way, and support via PyTorch is excellent. While I have not seen many experience reports for AMD GPUs + PyTorch, all the software features are integrated. It seems, if you pick any network, you will be just fine running it on AMD GPUs. So here AMD has come a long way, and this issue is more or less solved.
However, if you solve software and the lack of Tensor Cores, AMD still has a problem: the lack of community. If you have a problem with NVIDIA GPUs, you can Google the problem and find a solution. That builds a lot of trust in NVIDIA GPUs. You have the infrastructure that makes using NVIDIA GPUs easy (any deep learning framework works, any scientific problem is well supported). You have the hacks and tricks that make usage of NVIDIA GPUs a breeze (e.g., apex). You can find experts on NVIDIA GPUs and programming around every other corner while I knew much less AMD GPU experts.
In the community aspect, AMD is a bit like Julia vs Python. Julia has a lot of potential, and many would say, and rightly so, that it is the superior programming language for scientific computing. Yet, Julia is barely used compared to Python. This is because the Python community is very strong. Numpy, SciPy, Pandas are powerful software packages that a large number of people congregate around. This is very similar to the NVIDIA vs AMD issue.
Thus, it is likely that AMD will not catch up until Tensor Core equivalent is introduced (1/2 to 1 year?) and a strong community is built around ROCm (2 years?). AMD will always snatch a part of the market share in specific subgroups (e.g., cryptocurrency mining, data centers). Still, in deep learning, NVIDIA will likely keep its monopoly for at least a couple more years.
Le reste du billet est top pour comprendre le fonctionnement des GPUs pour faire du deep:
https://timdettmers.com/2020/09/07/whic … -learning/
C'est pour ça que je pensais mettre une 3080 dans la config que je vais me faire. C'est aussi pour jouer, mais du coup, je ne vais même pas regarder ce qu'il y a en face. Je suis en train de me former à ça, et ne serait-ce que d'entraîner un modèle à trier des photos de chats sur des petites quantité de données, ça prend parfois des plombes avec Google Collab.
Merci pour l'article ça a l'air d'éclaircir pas mal de trucs.
C'est le retour des années 2000 un barton et une 9700 pro
Et la ram à jako
Ça m'exite bien cette affaire d'AMD parce que inshallah je devrais change ma config au taf d'ici au début de l'année prochaine. Thermo, Kefka, c'est vraiment pas bien pour le CGGPU les radeons?
J'ai des collegues (des blenderfag) qui commencent à sérieusement lorgner sur les nouvelles cg amd mais c'est sous reserve que tes trucs utilisent pas uniquement du CUDA si j'ai bien compris (ce qui est le cas de blender je crois).
Je sais que pour Octane, c'est mort pour l'instant (et pour trés longtemps je pense) par exemple. Adobe doit déja gerer les gpu amd mais je comprends franchement rien à ce qu'ils font avec les gpu chez eux, à part dire à chaque update que y ou x effet est maintenant gpu...
De mémoire, Vray suppoorte openCL donc ca passe avec les trucs amd normalement.
Pour nous, faudrait vraiment que les nouveaux gpu amd poutrent tellement fort qu'une grosse partie des pros foutent dans leurs rigs pour être sur que ca marche sur le long terme (et que tout le monde propose du openCL ou quoi). En l'état, je prefere rester chez Nvidia perso, zéro envie de me retrouver coincé avec un truc ultra performant mais compatible avec rien.
Si j'ai bien compris pour Blender c'est AMD qui a envoyé un gars pour coder directement chez blender pour que ça marche bien. Octane est pas censé être adapté pour Vulkan a un moment ou a un autre? Ils ont bien sorti une version metal (et Iphone!) sans doute bien financé par Apple.
Enfin bon au pire ça aidera sur la pénurie de RTX 30XX.
Ca marche tres bien en tout cas, sachez tu. Maintenant faut que je revende mes 2x4go à 2000 mHZ que CHALUMEAUm'a fait acheter.
C'est possible pour blender vu le nombre de boites intéréssées qui injectent de la thune dedans.
Octane... Ils sont censés faire des tas de trucs mais franchement, ca m'a l'air d'être un peu n'imps niveau dev, genre leur truc iphone de mongol. Le moteur est performant et relativement simple (trop simple je trouve du coup, t'es toujours niqué par le full unbiased à un moment et je trouve ca pénible) mais je prefere pas compter sur eux pour quoi que ce soit.
Redshift ont dit que le support amd était en dev mais c'était il y a un moment, aprés le rachat par maxon (c4d), y a moyen que ca pousse de ce coté la aussi.
Ca à pas l'air d'être dans les plans du tout pour Arnold...
En gros à part blender/cycle et ptet vray, je suis pas sur que ca change un truc pour nous.
Ca suffit Jako maintenant, ce comportement, là :-(
T'es pas assez vieux pour être un vieux non ?
Z'avez déjà filé un coup de main à un vieux ?
Il assument que:
1-tu vois dans la matrix, l'avenir, et au travers de la poussière de leur pc pourri.
2-t'es potentiellement dangereux, t'as vidé leur compte épargne tandis que tu rétablissais leur adsl de merde.
3-tu fais ça pour ton plaisir (t'aimes ça la merde) - pas besoin de te filer un billet même si on se connait pas et que t'y passes des plombes.
Reprends toi Jako.
Je te sens affecté chaton.
Ne perds pas cette petite flamme qui te pousse à aider ton prochain sur les internettes. Je sais que tu t'es mouillé, c'était courageux de ta part, allez vient la je te fais un hug.
Non je suis fâché. Tu ne t'en tireras pas avec une pirouette.
Tu es faché contre toi même, ca va aller, regarde tout s'arrange.
Bien sur, je n'écouterai plus tes conseils à l'avenir, faut pas déconner.
genre leur truc iphone de mongol.
Je ne captais pas du tout l'interêt, enfin jusqu'a ce qu'Apple annonce son passage a des Proc ARM.
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Le Vrai Asile » Informatique » [RESOLU2] Ma config de merde, l'optimiser ou tout jeter ?
Propulsé par PunBB, supporté par Informer Technologies, Inc.
Généré en 0,074 secondes, 69 requêtes exécutées