Der liebe iOS hat mir gerade gezeigt, dass unser Shop 1 MB groß ist und extrem langsam läuft. Das muss ich natürlich ändern. Gretchenfrage: Wie? Dass dieser Banner alleine http://www.beautyplaza24.de/gx2/images/1.png 56.946 Bytes verschlingt, ist heftig. Das ist ein png, als jpg wäre er wahrscheinlich besser, oder? Auch der Slider frisst einiges, aber was soll ich mit einem Minislider und es müsste anderen ja dann auch so gehen. Unsere Bilder sind in der Regel 400x400, das dürfte auch kein Problem. Wo liegt es denn dann? Kann man irgendwo einen Menschen oder eine Maschine mieten, der sowas optimiert?
So wie ich das JP(E)G Kompressionsverfahren noch im Kopf habe ist das wahrscheinlich kompakter, bei nahezu gleicher Qualität. Probier vielleicht auch mal [LINK AUF WUNSCH DES USERS ENTFERNT] Wie gesagt kann man auch die - Hardware verbessern - Quellcode komprimieren (macht man gerne bei .js ) - Auf dem Server die Komprimierung aktivieren - Bilder komprimieren Bei der Zielgruppe sollte die Ladezeit dann bei 2-3 Sekunden liegen. Laut Studien klicken die meisten Leute bei Webseiten sonst weg wenn es länger dauert.
deine Seite gerade mit pagespeed getestet hat 1,45 MB. Dabei sind die größten fresser die ganzen Bilder. Ob Slider, Banner oder die thumbs. Hab mal ein Bild optimiert. Vorher 120Kb jetzt 40,1Kb. Siehst Du einen Unterschied?
Das Webtool behauptet es zumindest, ja Ich nutze zum Bilder komprimieren entweder direkt ein Grafikprogramm oder bei Massenbearbeitungen kann man auch auf ein Batch-Programm zurückgreifen. Zu GDLib [LINK AUF WUNSCH DES USERS ENTFERNT] Man müsste schauen ob GDLib seine Arbeit effizient macht. Wenn die Implementierung sehr großzügig bei der Kompression ist könnte man mit einem externen Programm evtl. bessere Resultate erhalten und würde (optisch) keinen Unterschied feststellen. Das sollte man aber testen, das habe ich noch nie gemacht.
Öhm, nö. Jetzt muss ich nur rausfinden, wie ich die am besten komprimiere, ohne jedes einzelne Bild erneut in die Hand bzw. ins Grafikprogramm zu nehmen. Also lieber balou, wie haste das gemacht?
lad dir den ordner z.B.: wo deine sliderbilder drinn sind runter auf deine festplatte. öffne das Programm IrfanView. Wenn Du das nicht hast hier der Download: http://www.irfanview.de/ Wenn Du das Programm installiert hast...öffnen und unter Datei - Batch-Konvertierung anklicken. Unter Zielformat jpg auswählen und unter Optionen Qualität 85 auswählen. Jetzt kannst Du die Bilder in einem Rutsch optimieren.
Ist euch eigentlich klar, wie viele Bilder man im Shop hat?! Das ist ja unglaublich, zumal er die ja alle doppelt und dreifach speichert. Nach der Komprimierung geht es dann wohl mal ans Aufräumen. Danke für den Anstupser.
Hallo Petra, bei 4000 Artikeln oder so hatte ich in meinem Testshop bei einem Backup inkl. php-Files und Co. irgendwas bei 50 000 Dateien. Ja: es sind viele Durch die Automatisierung (batch: reicht es sich einmal alle Originalbilder zu ziehen- und davon dann die jeweiligen Thumbnails, Popup-Bilder und sonstewas zu generieren) Generell würde ich nicht die bereits verkleinerten Bilder nochmals verkleinern sondern nur von der Originaldatei ausgehen. Bei der Komprimierung gehen "Informationen" verloren, so dass die Qualität Original -> verkleinerte, komprimierte Datei [besser ist als] Original -> verkleinertes Zwischenbild -> verkleinerte, komprimierte Datei
Das heißt im Umkehrschluss aber auch, dass wir neue Bilder gleich anders komprimieren und sie dann hochspielen. Sonst stehen wir ja bald wieder vor dem gleichen Thema. Richtig? Richtig!
Genau, schau dir die Größen der abgeleiten Bilder des Shops an (die verkleinerten Bilder). Und gib die Daten wie breit/hoch ein Bild werden soll in ein Batch-Grafikprogramm ein. Balou hatte ja schon eins genannt, Irfanview. Dort gibst Du als Quelle den Ordner mit den Originalbildern an. Bei den Einstellungen für die Bildgrößen die Maße wie man sie auch im Shop findet. Dann drückst Du auf Start und schiebst das Ergebnis hoch. In Irfanview kann man auch angeben wie die Output-Dateien heißen sollen. Das sollte identisch sein wie sie auch der Shop generiert und einpflegt. Ich hoffe ich hab mich nicht wieder zu kompliziert ausgedrückt.
Nö, ich bin ja schon fleißig dabei die Bilder zu komprimieren und hochzuladen. Ist ja kein Hexenwerk. Ich habe auch nur noch 1 Ordner vor mir
Nein, nicht bei JPEG. Der Algo erfasst Bereiche gleicher/ähnlicher Farbintensität und speichert deren Häufigkeit. Dadurch erreicht man die Komprimierung. Benachbarte Farben, die kaum zu unterscheiden sind, werden dabei zusammengefasst -> Informationsverlust. Das homomorphe Bild des Ursprungsfotos was 2x komprimiert wurde ist nicht identisch mit dem Bild, als wenn es nur 1x komprimiert wurde. Wäre dem so, könnte man aus jedem komprimierten Bild das Ursprungsfotos wiederherstellen. Das ist bei JPEG nicht möglich, da Information verloren geht- oder anders gesagt: die Entropie wächst. Verlustfreie Komprimierungsverfahren wie das Zeilensummenverfahren gibt es auch, jedoch bringt das eben nicht die Raten wie JPEG mit sich.
Beim Zeilensummen-Verfahren kann man verlustfrei arbeiten, indem man sich die "paarweise" auftretenden Häufigkeiten von Farben merkt. Statt z.B. für 64 Pixel einer Bild-Zeile 64x die Farcodierung für weiss zu speichern, speichert man sowas wie 64x{weiss}. Bei dem ist das wirklich so, dass man zuerst speichern kann 32x{weiss} und 32{weiss} und das dann nach 64x{weiss} transformiert. Hier ist die Ursprungsinformation erhalten geblieben. Das ganze kann man auch noch 2D und 3D aufblähen. Dann speichert man statt 1-dimensionaler Häufigkeiten auch 2,3-dimensionale Häufigkeiten. Eignet sich eben bei Bildern mit vielen gleichen Flächen. Sind jeweils 2 benachbarte Pixel allerdings immer unterschiedlich, bringt das dann überhaupt nix.
Könnt ihr bitte mal schauen? Die Thumbs sind jetzt so verpixelt an den Rändern der Produkte und bei der Aufschrift der Produkte.
Aktuell siehts gut aus. 800 und n paar kilobyte zeigt er an. [LINK AUF WUNSCH DES USERS ENTFERNT] könnte man noch komprimieren