Informationen zum PlagAware Bot
PlagAware ist ein Online-Service, der die Plagiatsprüfung von wissenschaftlichen Texten wie Bachelor- oder Masterarbeiten anbietet. Im Zuge der Plagiatsprüfung kann es zum Auslesen von Webseiten kommen, auf denen Quellen des Prüftexts vermutet werden.
Das Wichtigste auf einen Blick
- check_circleDer Bot von PlagAware identifiziert sich durch den UserAgent Mozilla/5.0 (compatible; PlagAwareBot).
- check_circleDer PlagAware Bot crawlt Ihre Seite nicht, sondern liest gezielt einzelne Seiten Ihres Webauftritts aus, auf denen mögliche Übereinstimmungen mit einem Prüftext vermutet werden.
- check_circleDer PlagAware Bot hält sich an die Direktiven in der robots.txt-Datei und kann damit gesteuert werden.
Was macht der PlagAware Bot?
PlagAware ist der führende deutsche Online-Dienst für die Plagiatsprüfung von wissenschaftichen Texten. Insbeonsdere wird PlagAware dazu verwendet, Texte aus dem Lehrbetrieb, wie etwa Seminararbeiten, Bachelorarbeiten, Masterarbeiten oder Dissertationen auf mögliche Plagiate hin zu überprüfen.
Im Zuge der Plagiatsprüfung werden einzelne Textabschnitte des Prüftexts an Suchmaschinen übergeben, um Webseiten und andere Quellen zu ermitteln, auf denen ähnliche Textinhalte vermutet werden. Anhand der Ergebnisse der Suchmaschinen werden Webseiten, die mögliche mögliche Quellen des Prüftexts darstellen, automatisiert ausgelesen und mit dem jeweiligen Prüftext verglichen. Dieses Auslesen der ermittelten Webseiten ist die Aufgabe des PlagAware Bots. Es werden also keine vollständigen Webauftritte gecrawlt, sondern gezielt einzelne Seiten erfasst, um diese mit dem Prüftext vergleichen zu können.
Wie verhält sich der PlagAware Bot?
Wie beschrieben, crawlt der PlagAware Bot nicht den gesamten Webauftritt, sondern spricht gezielt einzelne Seiten an, die bei einer vorherigen Websuche als möglicherweise relevant ermittelt wurden. Auf diese Weise wird der Traffic minimiert und es wird keine Mehrbelastung für die ausgelsene Seite erzeugt.
Der ausgelesene Textinhalt wird für 48h zwischengespeichert (gecacht). Auf diese Weise wird verhindert, dass sich die ausgelesene Seite mehrfach wiederholt kontaktiert und ausgelesen wird. Dies trägt ebenfalls zur Reduzierung des Traffics bei..
Der PlagAware Bot identifiziert sich eindeutig durch den UserAgent Mozilla/5.0 (compatible; PlagAwareBot). In Kombination mi tder robots.txt-Datei kann der PlagAware Bot damit leicht dazu veranlasst werden, einzelne Seiten, Bereiche oder den gesamten Webauftritt nicht zu erfassen.
Der PlagAware Bot respektiert die robots.txt-Datei. Diese Datei erlaubt es Webmastern, Bots von gezielt von einzelnen Seiten, Bereichen oder dem gesamten Webauftritt auszuschließen.
Wie kann ich den PlagAware Bot ausschließen?
Eine detaillierte Beschreebung, wie Bots anhand ihrer UserAgent-Kennung von einzelnen Seiten, Bereichen des Webauftritts oder der gesamten Webpräsenz ausgeschlossen werden können, finden Sie z.B. im Wikipedia-Artikel zum Robots Exclusion Standard.
Wo kann ich weitere Informationen erhalten?
Bei Fragen zum PlagAware Bot, bei Missbrauchsverdacht oder anderen Themen wenden Sie sich bitte gerne jederzeit an uns. Am einfachsten geht das über unser Kontaktformular.