Sujet : Question Conne
Est ce que le fait de zipper des photos dégrade leur qualité?
Bisous
Vous n’êtes pas identifié. Veuillez vous connecter ou vous inscrire.
Le Vrai Asile » Questions / Réponses » Question Conne
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Est ce que le fait de zipper des photos dégrade leur qualité?
Bisous
Non, à moins d'avoir une saloperie de compresseur, je n'ai jamais entendu de perte de données apres la decompression d'un fichier.
Ouais bon ben ca va on a pas tous fait une grande école d'ingénieur
Quel abruti !
Même moi je sais ça.
Putain mais vous voulez que je ramène mes potes mexicains et qu'on dépouille l'asile HEIN
Ouais bon ben ca va on a pas tous fait une grande école d'ingénieur
Ouais mais enfin bon, tu sais faire une recherche sur Wikipedia quand même : Compression
Imax est beaucoup trop classe pour trainer sur un site communiste tel que wiki.
Mais je vais pas faire de recherche il y a toujours ici le brave prolétariat pour me répondre. Bon êtes grave insolents aujourd'hui.
C'est tes potes maintenant les mexicains ?
Elle est pas mal celle-là, je sens qu'elle va ressortir souvent.
Non, à moins d'avoir une saloperie de compresseur, je n'ai jamais entendu de perte de données apres la decompression d'un fichier.
En fait c' est même plus sûr, étant donné qu' il y a un crc (enfin sur les rars de qualité, je sais pas pour les zip), voir des par pour récupérer les données corrompues.
Pour faire perdre de la qualité faut (re)compresser les photos en jpeg, heureusement que le zip & co ne sont pas destructifs sinon on aurait un peu de mal à lançer des programmes compressés.
Ben tes potes mexicains il peuvent venir tout seul sur l'asile, vu qu'ils ont garder tes bookmarks.
EN FAIT TU TOUCHES PAS AU FICHIER GRAND C'EST JUSTE QUE PAR EXEMPLE SI T'AS 0000000000 DANS TON FICHIER BEN PAR EXEMPLE TU ECRIS 10X0 DANS TON FICHIER ZIPPE TU VOIS QUOI, MAIS Y'A PLEIN PLEIN D'ALGO DIFFERENTS TU VOIS. et après. monsieur programme ben il regarde quel algorithme a été utilisé, et ensuite il regarde et voit 10x0 et écrit 000000000 à la place: il le décompresse.
tu as par exemple le codage Huffman qui se base sur la fréquence des lettres. huffman.
si tu as d'autres questions, hésite pas.
penses-y,
jt'embrase.
mais la question est loin d'etre stupide. car ici la compression est utilisée à des fin d'archivage, donc on veut conserver les données intactes. et souvent les données compressées ne peuvent pas subir de dégradation pour gagner de la place, exemple un fichier texte, on ne peut pas enlever les a ou les o.
ce qui n'est pas le cas avec la compression d'image, de son, de vidéo etc... car dans ce cas, il y a bien perte de qualité "irréversible". Par exemple, lorsque tu passes du dvd au divx, l'image pert énormément en qualité. le mp3 est un autre algorithme mais pour le son cette fois ci. etc etc etc
je pense qu'on parlera plutot de conversion dans le second cas.
une question intéressante, peut on arriver au meme niveau de compression avec un algorithme de compression qu'avec une conversion vers jpg par exemple pour une image. et bien aucune idée. je pense que non. car le but recherché n'est pas le meme et dans le second cas l'image est "visible" sans traitement alors qu'un traitement est nécessaire dans le premier. ce qui implique un coût suppérieur, mais de meilleurs résultats. le choix se fait évidemment en fonction de l'utilisation désirée.
biz
en fait ma question est totalement stupide, car dans la compression jpeg la compression a un cout direct sur la qualité, donc dans l'absolu, tu peux comprimer énormément mais avec un qualité médiocre. dans l'autre cas, le cout CPU est plus grand, mais la qualité ne bouge pas. la compression est uniquement destinée au stockage ou à la transmission de fichiers.
tu es méchant avec moi
Ha je l'avais pas vu comme ça mais Stany en fait c'est un algorythme de compression ultra-perfectionné et totalement aléatoire.
bla bla blurp
L'algo de compression du jpg.
transformation RVB vers YUV
y = .30 R + .59 V + .11 B ; u = .56 (B-y) ; v = 0.71 (R-y)
Facile, et pas vraiment de perte.
decimation
Passage du 32 bits au 16 voir 12 bits, là la qualité prend chère.
fragmenation de l'image en bloc de pixels de dimensions 8x8
On les voit de temps en temps sur certaines images qui mettent du temps à se décompresser.
transformation DCT
Une sorte de fourrier qui permet de réprésenter les données classées par ordre de grandeur, sympathique pour l'algo qui va suivre.
quantification non-linéaire normalisée par division entière (programme CM1)
En fait c'est pas compliqué, ça arrondi les réels en entier et les compte. Pareil, perte d'info.
La même avec des arrondis encore plus oufs
Ca dépend du taux de compression que t'as rentré Maurice.
Compression sans perte de qualité
Ca compte les zeros comme Mama il a dit, puis ça fini en Huffman histoire de garder la forme.
Ouais, il se passe tout ça quand tu enregistres une photo de cul.
Par avance, merci de ne pas faire de jeu de mot avec la transformation DCT
Donc pour répondre à Maverik, ouais c'est possible.
Le .png est un format lossless, aucune perte d'info donc, et pourtant les images sont aussi petites qu'un .jpg pas trop compressé.
Su-per. Comment il fait le png alors ?
Il rajoute un I et un O ! ping pong ! Et apres y en a qui vont encore gueuler que je ne fais pas d'effort pour alimenter l'asile en contenu interessant.
Su-per. Comment il fait le png alors ?
Et bah il compresse avec un super algorithme plus mieux que ce qui se faisait à l'époque de la définition du jpg par exemple, d'où le gain. Il doit reconnaitre des formes, des répétitions ... j'en sais rien et je m'en tappe à vrai dire.
Bon il faut savoir que si le .jpg est très compréssé, il peut être dans un cas extrème jusqu'à 10 fois plus petit qu'un .png.
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Le Vrai Asile » Questions / Réponses » Question Conne
Propulsé par PunBB, supporté par Informer Technologies, Inc.
Généré en 0,104 secondes, 80 requêtes exécutées