Der Anteil am Webtraffic verursacht durch Bots und Webcrawler liegt fast bei 50%, fand DeviceAtlas heraus.
Ich denke, das lässt sich noch weiter optimieren, indem die von Menschen verursachte Datenströme noch weiter reduziert werden. Es reicht vollkommen, wenn Software mit Software kommuniziert.
Viele dieser Bots und Metacrawler versuchen derzeit Gewohnheiten, Eigenarten, Bewegungsprofile, Kaufverhalten, Interessen über Menschen zu sammeln. Die nächste Generation wird vermutlich gar nicht mehr an den Daten von Menschen interessiert sein, sondern an den Daten derer, die Entscheidungen fällen oder zumindest maßgeblich beeinflussen und das werden die Softwareprogramme sein.
Ich denke, das lässt sich noch weiter optimieren, indem die von Menschen verursachte Datenströme noch weiter reduziert werden. Es reicht vollkommen, wenn Software mit Software kommuniziert.
Viele dieser Bots und Metacrawler versuchen derzeit Gewohnheiten, Eigenarten, Bewegungsprofile, Kaufverhalten, Interessen über Menschen zu sammeln. Die nächste Generation wird vermutlich gar nicht mehr an den Daten von Menschen interessiert sein, sondern an den Daten derer, die Entscheidungen fällen oder zumindest maßgeblich beeinflussen und das werden die Softwareprogramme sein.
Keine Kommentare:
Kommentar veröffentlichen