Alles beginnt mit einem "Hallo!". Max Koziolek tippt die Begrüßung in eine Maske in seiner Software - und lässt gleich weitere folgen. "Guten Tag!", "Hi!", "Grüß Gott!". Die Maschine wird dann eines der Worte auswählen. Koziolek programmiert einen Chatbot - eine Software, die sich im Netz mit Menschen unterhält. Er ist Chef des Berliner Start-ups Spectrm. Es hilft Medienunternehmen, ihre Inhalte in einfachen Dialogen rüberzubringen.
Bots sind ein aktuelles Netz-Phänomen. Schon jetzt kommen wir immer wieder mit ihnen in Kontakt, zum Beispiel wenn man Assistenten wie "Siri" oder "Alexa" nach dem Wetter fragt. Und in Zukunft wird man noch häufiger auf Bots treffen. Etwa wenn Dialog-Software in großem Stil im Kundendienst von Unternehmen die Call-Center ersetzt. Die Kehrseite des Trends ist die Angst vor Bot-Armeen, die Wahlen beeinflussen, indem sie die öffentliche Meinung manipulieren.
Hinter den heutigen Bot-Konversationen steckt noch mehr Mensch als Maschine. Die Äußerungen der Software bewegen sich in einem engen Rahmen, der vom Programmierer vorgegeben wurde.
"Die Antworten, die ein Chatbot gibt, müssen auf irgendeine Weise von Menschen erstellt werden", sagt Koziolek. Chatbots, die selbst Inhalte formulieren und eine Unterhaltung führen können, seien zwar das Ziel. "Das wird früher oder später kommen." Doch im Moment müsse man auch selbstlernende Bots von Menschen beaufsichtigen lassen.
Eine Frage der Persönlichkeit
Auch wenn heutige Chatbot-Kontakte simpel anmuten, der Aufwand dahinter ist groß. Immer wieder versuchten Nutzer, vom geplanten Dialogpfad abzuweichen - "auszubrechen", wie Koziolek es nennt. Was macht man dann? Eine Lösung ist, die Frage einfach zu wiederholen. Oder der Bot fischt eine freche Bemerkung aus seinem vorprogrammierten Satz-Fundus. "Das hängt davon ab, welche Persönlichkeit man dem Bot geben will."
Persönlichkeit? Soll ein Chatbot menschlich rüberkommen - oder einfach nur seine Aufgabe erfüllen? Hier scheiden sich die Geister. Koziolek ist dafür: "Wenn man den Bot menschlicher erscheinen lässt, funktionieren viele Sachen einfach besser", sagt er.
Internet-Investor Phil Libin, der gerade in San Francisco ein Studio für Bot-Entwickler aufbaut, ist ganz anderer Meinung. "Wenn ich als Nutzer auf einen Chatbot treffe, will ich meistens nur ein Problem gelöst haben, sonst nichts. Dafür muss er nicht einen Menschen imitieren."
Risiko automatische Meinungsmache
Wer sich schon von der Idee her als Mensch ausgibt, sind die sogenannten Social Bots, die Online-Netzwerke wie Facebook und Twitter mit Einträgen fluten. Spätestens seit der auch stark durch Internet-Kampagnen entschiedenen US-Präsidentenwahl gelten sie als Schreckgespenst für die Demokratie.
Amerikanische IT-Sicherheitsexperten vermuten hinter Tausenden Profilen, die etwa mit verzerrenden Kommentaren Stimmung machen, zwar weniger Automaten, sondern eine Legion günstiger Arbeitskräfte, die nach Vorgaben Botschaften in Smartphones tippen. Mit Dutzenden Geräten pro Person. "Einmal haben sie vergessen, das GPS von einem solcher Telefon abzuschalten. Es befand sich in Sankt Petersburg", sagt ein ranghoher US-Fachmann.
Aber was oder wer auch immer dahintersteckt - in der deutschen Politik formiert sich ein Konsens, davon die Finger zu lassen. "Politische Parteien sollten im Wahlkampf und auch sonst komplett auf den Einsatz von Social Bots verzichten", sagt Bundesjustizminister Heiko Maas (SPD).
Der Bot-Jäger
Die Gefahr der automatisierten Stimmungsmache bringt auch Bot-Jäger wie Christian Stöcker auf den Plan. Schon in seiner Zeit als Journalist beschäftigte er sich mit dem Thema. Heute ist er Professor an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und informiert als Experte politische Entscheider in Berlin darüber, welche Auswirkungen Bots haben können. Und wie man sie aufspürt. Dazu läuft in Hamburg sowie anderen Orten der Welt ein Forschungsprojekt. Stöckers Kollegen entwickeln ein System, das Bots enttarnen kann.
"Bots sind ein bewegliches Ziel", sagt der Bot-Jäger. Entwickler bauen immer ausgefeiltere Netze, um unentdeckt zu bleiben. Damit sind die Gejagten ihren Verfolgern meist einen Schritt voraus. Noch. Das wurmt den 44-Jährigen. Er gestikuliert, beschreibt eigene Erfahrungen mit Bot-Accounts. Vor allem auf Twitter, wo viele lauern.
Gut gemachte Accounts von Meinungsautomaten werden, so berichten US-Experten, normal angelegt: mit Profilbild und privat wirkenden Einträgen. Dann ruhen sie - bis sie etwa vor einer Wahl aufwachen.
Die Rolle der Bots lässt sich optisch zeigen: Auf Stöckers Bildschirm sind viele blaue und rote Punkte zu sehen. Unterschiedlich groß. Manche sind mit Linien verbunden. Das ist eine Grafik aus einer US-Studie zum Thema Social Bots. Die Wissenschaftler analysieren darin eine Twitter-Diskussion zwischen Impfbefürwortern und Impfgegnern. "Die roten Punkte sind mutmaßliche Bots. Die blauen sind die mutmaßlich menschlichen Teilnehmer dieser Debatte", erklärt Stöcker. "Je mehr Retweets ein Nutzer generiert, je relevanter er dadurch wird, desto größer ist der Punkt dargestellt."