Internet of Things

Eigens für den Kinofilm «I robot» baute Audi den Prototyp Audi RSQ, der sichauf Kugeln anstatt Rädern bewegte und sich dadurch in alle Richtungen steuern liess. (Bild: Audi)

Roboter und Bots

Unser Alltag wird zunehmend von Maschinen bestimmt, die uns lästige Arbeiten abnehmen sollen. Aber was ist mit Softwareprozessen, die im Internet ablaufen? Sind sie eher eine Bedrohung oder wirklich eine Entlastung?

Vielleicht erinnert sich der eine oder andere Leser an die Science-Fiction-(Sci-Fi-)-Filme und -Romane der 70er und 80er Jahre. Neben langlebigen Serien wie Raumschiff Enterprise (später Star Trek) experimentierten auch andere Filmemacher wie der legendäre Stanley Kubrick mit Sci-Fi. Die Dreharbeiten zu dessen fast dreistündigem Film «2001 – Odyssey im Weltraum» begannen bereits Ende 1965 in den Shepperton Studios, England. Nach jahrelangen Drehs in England erfolgte erst im März 1968 der Filmschnitt inklusiver zahlreicher Spezialeffekte durch Altmeister Kubrick persönlich. Bis dahin war der Film bereits 4,5 Mio. US $ über dem ursprünglichen Budget von 6 Mio. US $ und 16 Monate hinter dem Zeitplan. Erst im April 1968 kam das beeindruckende Sci-Fi-Meisterwerk in die Kinos. Bis heute hält sich hartnäckig das Gerücht, dass die erste Mondlandung im Juli 1969 gar nicht statt-gefunden hat, sondern in den Shepperton Studios unter Nutzung der bestehenden Filmkulissen gedreht wurde. Kubrick hatte jedoch die Vernichtung aller Original-Requisiten angeordnet, um deren spätere Wiedernutzung zu verhindern.

«I robot» – Inspiration bis heute

Einer der bekanntesten Science-Fiction- Schriftsteller seiner Zeit war Isaac Asimov (1920-1992), ein russisch-amerikanischer Biochemiker und Sachbuchautor. Er veröffentlichte über 500 Werke und wird gemeinsam mit Arthur C. Clarke und Robert A. Heinlein als einer der «Big Three» der englischsprachigen Sci-Fi-Literatur eingeordnet. Sein Buch mit dem Titel «I robot» gilt als Sci-Fi-Klassiker schlechthin und inspiriert Wissenschaftler und Produktentwickler bis heute.

«I robot» ist eigentlich eine Sammlung von neun Kurzgeschichten, die zwischen 1940 und 1950 in der amerikanischen Sci-Fi-Zeitschrift Astounding erschienen. Darin blickt eine Wissenschaftlerin im Jahr 2057 kurz vor ihrer Pensionierung und nach über 50 Jahren in der Branche auf die Meilensteine der Robotik zurück. Das Spektrum reicht vom Kinderbetreuer-Roboter Robbie bis hin zu komplexen Denkmaschinen, welche die Geschicke der Menschheit lenken. Drei Robotergesetze garantieren dabei als Grundregeln der Robotik, dass die Maschinen den Menschen dienen – und nicht umgekehrt:

  1. Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit einen Schaden an Menschen zulassen.
  2. Ein Roboter muss jeden von einem Menschen gegebenen Befehl ausführen, aber nur, wenn dabei das erste Gesetz nicht gebrochen wird.
  3. Ein Roboter muss seine eigene Existenz bewahren, es sei denn, dies spricht gegen das erste oder zweite Gesetz.

Im Grunde sollen diese drei Gesetze den Menschen und auch den Roboter vor Tod und Zerstörung schützen – ausser die Zerstörung des Roboters ist unumgänglich, um ein Menschenleben zu retten.

Robotik und Ethik

Im Buch «I robot» werden aber Fälle aufgezeigt, in denen sich Roboter scheinbar willkürlich oder falsch verhalten. Am Ende wird jeweils deutlich, dass sich die Roboter nicht logisch falsch, sondern im Grunde genau nach den drei Gesetzen verhielten. Aufgrund ihrer Logik gelangen sie jedoch manchmal zu anderen Schlussfolgerungen. Durch die für Roboter bisweilen widersprüchliche Regeln entstehen logische Konflikte, bei denen sie die Wertigkeit des einen Wesens über das andere anders einschätzen oder Vorgaben anders interpretieren als von den Menschen gedacht. Gleichwohl agieren Roboter im Ursprungswerk von Asimov nicht als mordende künstliche Wesen, sondern als denkende und fühlende Maschinen auf fernen Planeten ohne zerstörerische Leidenschaften.

Nach Meinung von Asimov muss jede Form von künstlicher Intelligenz ethischen Regeln unterworfen werden. Seine Werke inspirierten die Serie Star Trek ebenso wie die moderne Roboterforschung oder die Musik. «I robot» war denn auch der Titel des 1977 erschienenen und viel beachteten Konzeptalbums von Alan Parsons Project. Wie dieses sehr aufwendig produzierte Album verfolgte auch der 2004 gezeigte, gleichnamige Kinofilm eine andere Richtung als der Ursprungsroman, nämlich den allmählichen Aufstieg der Roboter zur Weltmacht und deren Verselbstständigung mit dem Versuch, die Menschheit zu unterwerfen.

Von der Bedrohung zum Helfer

Natürlich waren die tatsächlichen Roboter der damaligen Zeitepoche alles andere als eine Bedrohung. Allein die Prozessorleistung der damaligen Grossrechner oder die Übertragungsgeschwindigkeiten der damals verfügbaren Datennetze hätte bei Weitem nicht ausgereicht, um ein weltweites Roboter-Netzwerk zu steuern und zu kontrollieren. Heute sähe dies notabene anders aus, was sich insbesondere bei der Realisierung von Software-Robotern (so genannte Bots) zeigt. Vor diesem Hintergrund darf die erste Mondlandung durch Apollo 11 als Meisterleistung angesehen werden, weil fast alles elektro-mechanisch über mässig zuverlässige Funkverbindungen gesteuert wurde.

Parallel zur Sci-Fi-Welle wurden elektro-mechanisch arbeitende Roboter entwickelt, welche dem Menschen wiederkehrende Arbeiten abnehmen sollten, insbesondere im Rahmen der industriellen Fertigung. So wurden besonders in der Automobilindustrie manuelle Arbeitsprozesse automatisiert und durch Roboter ausgeführt. Diese lackierten ab Anfang der 80er-Jahre Rohkarossen, setzten vorher definierte Schweisspunkte exakt oder reichten ab Mitte der 90er-Jahre sogar ganze Rohkomponenten «just-in-time» ans Fliessband. Dadurch wurden Produktionskosten gesenkt und die Qualität markant gesteigert. Damals entstanden neueBerufsbilder wie jenes des Automatikers.

Heute gehen die Möglichkeiten natürlich weit über das hinaus, was damals nur als Fiktion in Romanen und Filmen existierte. Allgegenwärtig sind automatische Rasenmäher, welche über Induktionsschleifen oder Metallbänder im Boden durch das Gelände geleitet werden. Für Haushalte gibt es selbstlernende Staubsauger-Roboter, welche wahre Wunderwerke der Technik sind. Diese optimieren nicht nur die Saugpfade durch die Wohnung, sondern erkennen auch den Schmutz oder verschiedene Untergründe, sodass sie sich dem Boden anpassen. Man kann sie über Apps vom Smartphone aus fernsteuern. Via WLAN erhalten sie Software-Updates und kehren wie ihre Roboter-Kollegen aus der Gartenabteilung nach getaner Arbeit brav in die Ladestation zurück.

Vom Roboter zum Bot

Im Wort Roboter kommt der Begriff Bot zwar vor, ist aber zu unterscheiden. Ein Bot ist eine Software-Anwendung, die automatisierte Aufgaben (Skripte) über das Internet ausführt. Typischerweise führen Bots einfache und sich wiederholende Aufgaben viel schneller aus als Menschen es könnten. Die häufigste Verwendung von Bots ist das Web-Crawling, bei dem ein automatisiertes Skript Informationen von Webservern abruft, analysiert und ablegt. Mehr als die Hälfte des gesamten Webverkehrs wird von Bots generiert, weshalb man bisweilen von Internet-Bots oder Web-Robotern liest.

Die unnötig belasteten Webserver versuchen natürlich, den Verkehr durch Bots einzuschränken. Dazu liegt auf einigen Servern eine Datei mit dem Namen robots.txt, welche die Regeln für das Verhalten von Bots auf diesem Server enthält. Jeder Bot, der sich nicht an die Regeln hält, kann der Zugriff auf die betroffene Website verweigert oder sogar gesperrt werden. Meist besteht jedoch keine Möglichkeit, allfällige Regeln durchzusetzen oder sicherzustellen, dass der Ersteller oder Implementierer eines Bots die robots.txt- Datei liest und beachtet.

Man kann Bots für gute, aber auch für manipulative Zwecke oder gar für böswillige Angriffe einsetzen. In den letzten 15 Jahren haben sich im IP-Networking (IP: Internet Protocol) auf dieses Thema spezialisierte Experten herausgebildet, welche entweder auf der Seite der Guten oder eben leider der Bösen arbeiten. Dabei geht es in den meisten Fällen um Macht und/oder Geld, sodass sich hier ein wahrer Cyberkrieg von «Gut» gegen «Böse» entwickelt hat. Da die Grenzen verschwimmen, ist oft nicht klar bzw. hängt vom Standpunkt ab, wer welchem Lager angehört.

Interagierende Bots

Besonders bei der Automatisierung von Web-Dienstleistungen, aber auch in stillgelegten Bankfilialen sind Chat Bots und Social Bots weit verbreitet. Chat-Bots nutzen Algorithmen, welche auf Dialogen mit menschlichen Benutzern ausgelegt sind und kommen auf zahlreichen Webseiten als Hilfe- oder Steuerungsfunktion, aber auch als Verkaufsunterstützung zum Einsatz. Social Bots hingegen sind weit komplexer und nutzen Algorithmen, die menschliche Verhaltensweisen imitieren, um sich mit ähnlichen Mustern wie ein menschlicher Benutzer zu unterhalten.

Die Entwicklung von Social Bots begann in den 1950er Jahren mit Alan Turing, der Sätze von Instruktionscodes entwarf und durch Tests bestätigte. Zur Verarbeitung natürlicher Sprache schuf Joseph Weizenbaum in den 1960er Jahren das Computerprogramm ELIZA, das bis heute als Pionier für Algorithmen künstlicher Intelligenz (KI) gilt. ELIZA inspirierte Computerprogrammierer zum Entwurf von Programmen, welche Verhaltensmuster mit ihren Befehlssätzen abgleichen konnten. Dadurch wurde die Verarbeitung natürlicher Sprache zu einem wichtigen Einflussfaktor bei der Entwicklung von Social Bots und KI.

Warum Bots mehr als die Hälfte des gesamten Webverkehrs generieren und zur öffentlichen Meinungsbildung beitragen, wurde erstmals an den US-Wahlen 2016 deutlich. Emilio Ferrara, Informatiker von der University of Southern California, schrieb u.a. im Magazin «Communications of the ACM» über den grossen Einfluss von Social Bots auf die öffentliche Meinungsbildung. Laut Ferrara führt der Mangel an Ressourcen zur Implementierung von Faktenüberprüfung und Informationsverifizierung zu grossen Mengen an Falschmeldungen und Behauptungen, die über Bots auf Social-Media-Plattformen verbreitet werden.

So sind z. B. auf Twitter die meisten dieser Bots mit Suchfilterfunktionen programmiert, welche auf Schlüsselwörter und Phrasen abzielen, um eine bestimmte politische Richtung zu begünstigen und diese dann retweeten. Dies bezeichnet Ferrera als «Bot-Effekt», welcher das Verhalten emotional volatiler Benutzer stark beeinflusst und die Wahrnehmung der Realität verändert. Wozu dies führen kann, wurde Anfang 2021 wiederum in den USA deutlich. Das jahrelange Verdrehen und Verzerren von Fakten via Tweets auf Social Media gipfelte schliesslich in der traurigen Stürmung des Kapitols.

Bot-Netzwerke

Weniger um Verschwörungstheorien, sondern um handfeste Angriffe aus dem Internet drehen sich so genannte Bot-Netzwerke. In der harmloseren Variante kaufen eine grössere Anzahl Bots auf Online-Plattformen grösseren Mengen an Tickets populärer Konzerte automatisch ein und schaffen einen Schwarzmarkt zum Weiterverkauf, wenn die Tickets dann offiziell ausverkauft sind.

Auch mit Bots automatisierte Webklicks bestimmter Links können unangenehme Kostenfolgen haben. Denn wenn ein Anbieter von Produkten oder Dienstleistungen unter bestimmten Suchbegriffen auf einer Suchmaschine zuoberst erscheinen will, muss er dessen Betreiber dafür zahlen, meist pro Klick. Bots können daher mit automatisierten Webklicks den Anbieter empfindlich schädigen und den Umsatz des Betreibers ohne viel Aufwand erhöhen.

Eine weit gefährlichere Bot-Variante attackiert Webseiten mit Anfragen oder Unmengen von E-Mails. Während letztere dank moderner Spam-Filter meist gar nicht in die Mailboxen geraten, sind erstere zumindest während der ersten Phase des Angriffs weitaus schwerer zu erkennen. Besonders bedroht sind Betreiber von Webshops, bei denen schnell einmal einige Millionen Tagesumsatz auf dem Spiel stehen. Aber auch Betreiber von Rechenzentren stehen oft im Fokus böswilliger Angriffe. Dort stehen z. B. gehostete Server, ohne die kein Tram oder ein Zug fahren kann.

Sind der Webserver oder der gehostete Server dann lahmgelegt, werden Erpresserschreiben an den Anbieter gerichtet. Solche Angriffe haben ihren Ursprung in darauf spezialisierten, kriminellen Organisationen z. B. in Russland, Indien oder China. Sie laufen unter dem Namen Distributed Denial of Service (DDoS), der sich auf die Einbindung mehrerer 1000 Bots zu einem verteilten Netz bezieht – daher auch Bot-Netzwerk.