Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 
Switch to english language
Startseite    Anmelden     
Logout in [min] [minutetext]
SoSe 2024

Rating the Quality of Comparative Review Websites - Einzelansicht

  • Funktionen:
Grunddaten
Veranstaltungsart Projekt SWS 10
Veranstaltungsnummer 422210012 Max. Teilnehmer/-innen 5
Semester WiSe 2022/23 Zugeordnetes Modul
Erwartete Teilnehmer/-innen
Rhythmus einmalig
Hyperlink  
Sprache englisch


Zugeordnete Personen
Zugeordnete Personen Zuständigkeit
Stein, Benno Maria, Prof., Dr.rer.nat.
Bevendorff, Janek , Master of Science
Wiegmann, Matti , Master of Science
Studiengänge
Abschluss Studiengang Semester Leistungspunkte
Master Computer Science and Media (M.Sc.), PV 11 - 15
Bachelor Medieninformatik (B.Sc.), PV 11 - 15
Bachelor Medieninformatik (B.Sc.), PV 17 - 15
Bachelor Medieninformatik (B.Sc.), PV 16 - 15
Master Human-Computer Interaction (M.Sc.), PV17 - 15
Master Digital Engineering (M.Sc.), PV 17 - 12
Master Human-Computer Interaction (M.Sc.), PV15 - 15
Master Digital Engineering (M.Sc.), PV 19 - 12
Master Human-Computer Interaction (M.Sc.), PV19 - 12/18
Bachelor Informatik (B.Sc.), PV 2020 - 12
Master Computer Science for Digital Media (M.Sc.), PV 2020 - 12
Master Computer Science for Digital Media (M.Sc.), PV 17 - 15
Zuordnung zu Einrichtungen
Intelligente Informationssysteme
Fakultät Medien
Inhalt
Beschreibung

Let's be honest: Most (comparative) product review websites are utter rubbish (low effort, low quality, deceptive, fake, you name it) and commercial search engines fail to deal with it.

To fix this mess, we want to build a tool that rates the quality of review websites and helps users make better buying decisions. As a prerequisite for such a tool, we first need a lot of website quality annotations. We have already developed a questionnaire to assess a website's quality and collected screenshots of more than 200,000 potential review websites. We now want to develop a crowdsourcing task using Amazon Mechanical Turk (MTurk) to let paid workers create the annotations for us. Creating this task involves (1) UX design to guide the untrained workers, (2) optimizing the questionaire (data-driven) to streamline the annotations, and (3) developing evaluation methods to weed out faulty annotations.

Bemerkung

Time and place will be announced at the project fair.

Leistungsnachweis

Abschlusspräsentation und Ausarbeitung

Zielgruppe

B.Sc. Medieninformatik / Informatik

M.Sc. Computer Science for Digital Media

M.Sc. Human-Computer Interaction

M.Sc. Digital Engineering


Strukturbaum
Keine Einordnung ins Vorlesungsverzeichnis vorhanden. Veranstaltung ist aus dem Semester WiSe 2022/23 , Aktuelles Semester: SoSe 2024

BISON-Portal Startseite   Zurück Kontakt/Impressum Datenschutz