Hallo, Kann mir jemand einen Lektüretipp zur Best Practise für fehlertolerante bzw. intelligente Suche geben? Hier im Forum auch schon angesprochen: Eine phonetische Suche. Btw, Steffen hatte ja mal ein Fehlertoleranz-Modul dafür - wäre das für einen kleinen Obolus nochmal für gx 2.7 lauffähig zu machen?
Ist Findologic eine Mietversion weil die Suche so Server-belastend ist dass sie ausgelagert ausgeführt wird? Gibt man alle seine Produktdaten dafür ab?
Nur aus Neugier und nicht um dir nah zu treten... Was bringt dir eine Lektüre zum Themengebiet die beschreibt, welche Logik dahinter steckt, wenn es um das eingemachte geht? Die Logik einer phonetischen, binären.. etc Suche ist ein sehr komplexes Thema. Vor allem wenn es heißt einem Stück Blech was nur Bits und Bytes oder den Status "An" und "Aus" versteht, diese Logik beizubringen. Vor allem wozu das Rad neu erfinden? Die meisten Systeme beinhalten schon eine Funktion von einer Suche und ja eine phonetische Suche ist "sehr" lastig (je nach Anzahl an Daten). Eine Gegenfrage - Wofür brauchst du überhaupt eine phonetische Suche?
Hallo monevo, würde mich gerne etwas dazu informieren, damit ich Preis/Leistung von bestimmten Angeboten besser vergleichen kann (Findologic & Co.) Ich lese immer wieder, dass man angeblich durch eine ineffiziente Suche sehr viel Potential verschenkt, weil die Leute immer weniger bereit sind, sich durch Kategorien durchzuklicken. Die Suche von Gambio ist ja bei Zeichendrehern, Rechtschreibfehlern oder phonetisch geschriebenen Begriffen noch nicht so sehr fit, oder übersehe ich da eine jüngste Entwicklung? Monatlich richtig Kohle dafür abzudrücken - da weiß ich nicht so recht ob sich das lohnt? Wenn es dafür technische Gründe gibt, ok. Wenn es kaufmännische sind, würde ich da lieber was eigenes haben. Wenn Steffen da nicht nochmal rangeht an sein Modul, erwäge ich auch eine Kauflösung selbst in Auftrag zu geben, und da wäre es ja auch sehr wichtig, überhaupt das Grundwissen zu haben, um die Spezifikationen festlegen zu können. Zu deiner Frage zur phonetischen Suche: Marken werden so geschrieben wie sie gesprochen werden, und viele Produktnamen sind bei uns englisch, so dass die die Leute da auch nach seltsamen Sachen suchen (Liesch, Liesh, Leach, Leech, ... statt Leash) und so weiter. Wenn wir die entsprechende falsche Schreibweise nicht zufällig in den zusätzlichen Suchbegriffen angelegt haben, ist der Kunde weg...
Für mich ein Zeichen von ineffizienter Kategorienvergabe. Ich denke die Gambio Suche verwendet die "%LIKE%"-Funktion der Datenbank (Sicher bin ich mir aber nicht.). Deswegen werden Suchbegriffe die um die Menge der Charaktere eines Suchwortes wachsen und nicht zutreffen, nicht mehr angezeigt. Da würde ich behaupten, sowohl als auch Dann hoffe ich, dass du in Mathe aufgepasst hast Mal abgesehen davon, dass der Kunde nicht mal "weiß" welche Marke er kaufen soll, kann man sowas auch rekursiv lösen. Jedoch sei gesagt das fast jede Art von Rekursion auf kosten der Rechner-Performance geht und je nach dem wie viele unterschiedliche Produkte ihr anbietet. In deinem Fall würde ich eine Art "autocomplete" in Erwägung ziehen, also quasi direkt nach der Eingabe des zweiten Charakters Vorschläge unterbreiten...
In manchen Fällen sicherlich, in den meisten vermutlich eher nicht. Wenn man sich z.B. Amazon anschaut - hast du da jemals über Kategorien gesucht? Je größer das Sortiment, desto schwieriger wird das Ganze. Aber selbst bei gut durchstrukturierten Kategorien: Den Kunden erziehen kann man wohl nicht mehr, dazu ist der Konkurrenzshop zu wenige Clicks entfernt, denke ich. "%LIKE%" bedeutet ja nur, dass die Zeichenkette des Suchworts im Feld vorkommen soll. Bei Tippfehlern, Rechtschreibfehlern oder Buchstabendrehern hilft das noch nicht, daher der Wunsch nach einer stärkeren Fehlertoleranz. Interessant wäre nach wie vor wie stark die Serverressourcen belastet werden - kaum spürbar, deutlich oder unzumutbar stark. Ich weiß, so pauschal nicht beantwortbar, sondern von der Komplexität der Fehlertoleranz abhängig. Werden denn bei Findologic die Suchfunktionen auf einem externen Server durchgeführt um den eigenen Server zu schonen? Dann würde es ja so aussehen, als gäbe es einen triftigen technischen Grund für ein Abo. Bis jetzt brauchte ich noch kein Mathe dafür ;-)
Mir wäre eine fehlertolerante Suche im Shop auch lieber, als eine externe Lösung. Ich denke die Belastung des Servers richtet sich zum Teil nach der Anzahl an Artikeln und der Sucheinstellungen. Eine Suche in Titel, Beschreibung, Attributen und Eigenschaften legt den Server auch jetzt schon lahm.
@Lena: Ich glaube Amazons Suche funktioniert eher nach dem Chaos Prinzip Was deinen Shop betrifft, so würde dir eigentlich eine Suche mit "autocomplete" ausreichen. Vorteil: Dem Kunden werden nach dem ersten Tastenanschlag Vorschläge unterbreitet. Mindert zumindest die Fehler etwas ein. Nachteil: Nach jedem Tastenanschlag wird eine Request generiert. Nicht so optimal, bei Shared-Hosting Paketen die noch mit Traffic-Kosten verbunden sind (sowas soll es auch noch geben ).
Naja, sich gegenseitig zu belehren was/wie/warum bringt uns kein Stück weiter... Deswegen würde ich vorschlagen, dass wir eine eigene Logik für die Suche erstellen. Eine die deinen Wünschen entspricht. Du hast einen Wunsch geäußert, dich mit diesem Thema mehr auseinander setzten zu wollen. Daher erwarte bitte keine Copy & Paste Lösung von mir - Ein wenig Eigenarbeit und Überlegungen erwarte ich schon von dir Oder wir lassen es sein und warten auf eine fertige Lösung von Gambio
Hallo monevo, danke, eine Copy & Paste Lösung hatte ich ja nicht erwartet. Wo Steffen ja jetzt offenbar schon dransitzt und entsprechende Vorerfahrung hat (siehe hier: (Link nur für registrierte Nutzer sichtbar.) ) können wir ja vielleicht auf seine Neuumsetzung warten. Ich finde, dass sich sein Ansatz richtig gut anhört und Ressourcen sparend scheint: (Link nur für registrierte Nutzer sichtbar.) Ich wusste gar nicht, dass PHP da von Haus aus schon Funktionen mitbringt! Sehr cool, das lädt zum Spielen ein