In den kommenden Wochen wird Reddit damit beginnen, den meisten automatisierten Bots den Zugriff auf seine öffentlichen Daten zu blockieren. Sie müssen eine Lizenzvereinbarung abschließen, wie es Google und OpenAI getan haben, um Reddit-Inhalte für Modellschulungen und andere kommerzielle Zwecke zu verwenden.

Obwohl dies technisch gesehen bereits die Richtlinie von Reddit ist, setzt das Unternehmen sie nun durch die Aktualisierung seiner robots.txt-Datei durch, einem wichtigen Teil des Webs, der vorschreibt, wie Crawler auf eine Website zugreifen dürfen. „Dies ist ein Signal an diejenigen, die keine Vereinbarung mit uns haben, dass sie nicht auf Reddit-Daten zugreifen sollten“, sagte der Rechtsdirektor des Unternehmens. Ben Leeer erklärt es mir. „Es ist auch ein Signal für böswillige Akteure, dass das Wort ‚erlauben‘ in der robots.txt-Datei nicht bedeutet und nie bedeutet hat, dass sie die Daten nach Belieben verwenden können. »

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *