Wie gut sind eigentlich Google und Co.? Prof. Dr. Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg, Department Information [email protected]
Köthen, 24. Juni 2011
1 |
Kurzvorstellung
• Prof. Dr. Dirk Lewandowski
• Professor für Information Research & Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg (HAW)
• Forschung vor allem zur Qualität von Suchmaschinen, Nutzerverhalten, Query Understanding
2 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
3 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
4 | Dirk Lewandowski
Mission Statement
Wir wollen den Suchprozess sowohl aus system- als auch aus nutzerzentrierter Perspektive verstehen und aus diesem Verständnis Empfehlungen für die Verbesserung von Suchsystemen ableiten.
5 | Dirk Lewandowski
Aktuelle Projekte im Bereich Suche
• Forschungsprojekte • Qualität von Web-Suchmaschinen (laufend bis 2011) • Forschungsprojekt „Wissenschaftssuchmaschinen“ (seit WS 2008/09) • Query Understanding (seit 2010) • Search Experience (ab 2011)
6 |
Methoden
Search
Relevanztest
Online-Umfrage
Physiologische Untersuchung
Logfile-Analyse Heuristische Evaluation
Eye-Tracking
Usability-Test
7 | Dirk Lewandowski
Aktuelle Projekte (mit Studierenden) im Bereich Suche
• Lehrprojekte – Verbesserung der Musiksuche (WS2010/11; Projektpartner Musicload) – Lokale Suchmaschinen: Eye-Tracking und Usability (WS 2009/10,
Projektpartner Deutsche Telekom) – Einbindung von Frage-Antwort-Diensten in die Web-Suche (WS2007/08,
Projektpartner Lycos Europe)
• Abgeschlossene Entwicklungsprojekte (mit MA-Studierenden) • Suchanfragenklassifikation (in Zusammenarbeit mit T-Online) • Produktsuche (mit Otto) • Universal-Search-Konzept für die T-Online-Portalsuche
8 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
9 |
Web search: „Always different, always the same“
http://web.archive.org/web/19961023234631/http://altavista.digital.com/
AltaVista 1996
10 |
• x
11 |
x
12 |
x
Anzeigen
Nachrichten
Bilder
Videos
Blogbeiträge
13 | Dirk Lewandowski
Übertragbarkeit der Universal Search – Beispiel T-Online Portalsuche
14 |
Ergebnisselektion
• Ergebnisselektion abhängig von • Position des Treffers • Vorkommen des Treffers im „sichtbaren Bereich“ • Darstellung/Hervorhebung des Treffers, Trefferbeschreibung • Einblendung in Vorschlägen während der Eingabe
15 | Dirk Lewandowski
x
(Eyetracking-Studie HAW-Hamburg 2010)
16 | Dirk Lewandowski
x
17 | Dirk Lewandowski
x
18 |
Eye-Tracking
• x
19 | Dirk Lewandowski
Fixationen bei kartenbasierter Darstellung – Beispiel T-Online
20 |
x
21 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
Hätten Sie‘s verstanden?
• vatikan • stockbrot • bmw • fußball • drehscheibe
• frauentausch • seelenfarben • berliner bank • osterei • wgt
22 | Dirk Lewandowski
23 | Dirk Lewandowski
• x
24 | Dirk Lewandowski
• x
25 | Dirk Lewandowski
• x
26 | Dirk Lewandowski
Die Suchintention kann sich verändern
27 | Dirk Lewandowski
Die Suchintention kann sich verändern
28 | Dirk Lewandowski
Was kann man aus einer Suchanfrage herauslesen?
• Genre (Bsp. Nachrichten) • Thema (grob) • Intention (informationsorientiert, navigationsorientiert, transaktionsorientiert) • Ziel (Aktion oder Ressource) • Spezifität (Bsp. „Mindestlohn“) • Bandbreite/Mehrdeutigkeit (Ergebnisse ausdifferenzieren) • Autoritätsbezug • Ortsbezug • Zeitbezug (explizit; implizit; aus dem Suchanfrage-Volumen)
(nach Calderon-Benavides et al. 2010)
29 |
Suchanfragen im Kontext
30 |
Drei Anfragetypen
Anfragetypen nach Broder (2002)
• Informational (informationsorientiert) – Nutzer möchte sich zu einem Thema informieren. – Ziel sind mehrere Dokumente.
• Navigational (navigationsorientiert) – Ziel ist es, eine bestimmte Seite (wieder) zu finden. – Typisch: Suche nach Homepage („Daimler Chrysler“). – Ziel ist i.d.R. ein Dokument.
• Transactional (transaktionsorientiert) – Ziel ist das Auffinden einer Website, auf der dann eine Transaktion stattfinden
soll. – Beispiele für Transaktionen: Kauf eines Produkts, Download einer Datei.
31 |
Anwendungsfälle: Konkreter vs. problemorientierter Informationsbedarf
Anwendungsfall Konkret Problemorientiert
Websuche Ebay-Homepage Informationen über die neue Sherlock-Holmes-Serie der BBC
Bibliothekskatalog Ist das Buch „Information Retrieval“ von Stock in der HAW-Bibliothek vorhanden?
Welche Bücher gibt es zum Thema kollaborative Suche?
Online-Dating Welche Hobbies hat Natalia73?
Wer passt zu mir?
Produktsuche Was kostet der Roomba 581?
Welcher Staubsaugroboter ist der beste?
32 |
Navigationsorientierte Suchanfragen anhand von Klicks bestimmen
33 |
Transaktionsorientierte Suchanfragen anhand der Klicks bestimmen
34 | Dirk Lewandowski
Einsatzmöglichkeiten von Query Understanding
• Anfrageerweiterung • Generierung von Suchvorschlägen • Steuerung der organischen Ergebnisse • Steuerung der Werbung • Steuerung der Universal Search
35 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
36 |
Kernkomponenten einer Suchmaschine
(Risvik & Michelsen 2002)
37 | Dirk Lewandowski
Die Qualität von Suchmaschinen kann nur durch eine Kombination unterschiedlicher Faktoren gemessen werden.
• Qualität des Index – Größe des Datenbestands, Abdeckung des Web – Abdeckung bestimmter Bereiche (Sprachräume, Länder) – Überschneidungen der Indices – Aktualität des Datenbestands
• Qualität der Suchresultate – Retrievaleffektivität – Zuverlässigkeit der Suchergebnisse – Zufriedenheit der Nutzer – Überschneidungen der (Top-)Ergebnisse
• Qualität der Suchfunktionen
• Nutzerfreundlichkeit + Benutzerführung – Aufbau der Trefferseiten
(Lewandowski & Höchstötter 2007; ergänzt)
38 | Dirk Lewandowski
Die Qualität von Suchmaschinen kann nur durch eine Kombination unterschiedlicher Faktoren gemessen werden.
• Qualität des Index – Größe des Datenbestands, Abdeckung des Web – Abdeckung bestimmter Bereiche (Sprachräume, Länder) – Überschneidungen der Indices – Aktualität des Datenbestands
• Qualität der Suchresultate – Retrievaleffektivität – Zuverlässigkeit der Suchergebnisse – Zufriedenheit der Nutzer – Überschneidungen der (Top-)Ergebnisse
• Qualität der Suchfunktionen
• Nutzerfreundlichkeit + Benutzerführung – Aufbau der Trefferseiten
(Lewandowski & Höchstötter 2007; ergänzt)
39 |
Entscheidungen beim Design klassischer Retrievaltests
1. Welche Suchmaschine(n)?
2. Wie viele Suchanfragen? 3. Welche Suchanfragen? 4. Wie viele Ergebnisse pro Suchanfrage?
5. Wie viele Juroren? 6. Welche Juroren(gruppen)? 7. Wie viele Juroren je Suchanfrage?
8. Wie sollen Dokumente bewertet werden (Skalen)? 9. Sollen Dokumentbeschreibungen berücksichtigt werden?
10. Mit welchen Kennzahlen soll gemessen werden?
40 | Dirk Lewandowski
Precision-Recall-Graph (binär) – Beispiel Websuche
41 |
Welches Nutzerverhalten kann in Retrievaltests abgebildet werden?
• Query-response paradigm • Annahme: Nutzer gibt Suchanfrage ein, prüft dann das Ergebnis. • Statisch; „systemorientiert“ „Klassische“ Retrievaltests (Abfrage der „objektiven“ Trefferqualität)
• Interaktives Retrieval • Annahme:
• Recherche findet in mehreren Schritten statt. • Bei der Recherche handelt es sich um einen „Dialog“ zwischen Nutzer und
System. • Dynamisch, „nutzerorientiert“ Nutzerstudien (Abfrage der Zufriedenheit der Nutzer)
42 | Dirk Lewandowski
Trefferqualität in der Nutzerstudie
„Wo ist denn nun der Jungferstieg?“
Jungfernstieg
43 |
Tools: RAT & Search Logger
• RAT (Relevance Assessment Tool) • Werkzeug zum Design und zur Durchführung klassischer Retrievaltests • Baukastenprinzip beim Testdesign • Automatische Abfrage der Treffer der bekannten Suchmaschinen
• Search Logger (Entwicklung der Uni Tartu, Estland) • Werkzeug zum Protokollieren von Browserinteraktionen • Task-basiert
• Ziel 2011: Zusammenführung der beiden Tools, um interaktives IR in Suchmaschinen evaluieren zu können.
44 | Dirk Lewandowski
Die Websuche hat sich verändert...
Wie kann man die Suchanfragen der Nutzer verstehen?
Wie gut sind die Ergebnisse der Suchmaschinen?
Fazit
Agenda
Suchmaschinenforschung an der HAW
45 |
Fazit
• Im Bereich Suche sind noch viele Fragen offen...
• Was die großen Suchmaschinen „gut“ macht, ist vor allem die Antizipation der Nutzerbedürfnisse.
• Es besteht eine starke Übertragbarkeit der Erkenntnisse aus der Websuche auf andere Suchsysteme.
• Während Einzelbereiche der Nutzer-/Suchmaschineninteraktion gut verstanden werden, fehlt ein Gesamtverständnis des Suchprozesses.
• Für viele Fragestellungen sind Kooperationen zwischen Forschung und Industrie unerlässlich.
Vielen Dank für Ihre Aufmerksamkeit.
www.bui.haw-hamburg.de/lewandowski.html
Aktuelles Buch: Handbuch Internet-Suchmaschinen 2
E-Mail: [email protected]