Im Bereich künstliche Intelligenz konzentriert man sich vor allem auf die Sprachverarbeitung, aber wer hat den Schlüssel zu Sprach-Algorithmen oder zu Menschen? Roboter werden uns immer ähnlicher, handeln eigenständig und können sogar „
Social Bots, also Maschinen, die im Netz Propaganda verbreiten sollen, sind wieder mal in den Fokus der Medien gelangt. Doch war Ihnen bekannt, dass Medien oder Konzerne sich schon lange dieser Bots bedienen? Die Washington Post hatte ein großes Team von Journalisten, die über die Olympische Spiele.in Rio berichteten, aber sie setzten auch Roboter ein, die ohne menschliches Zutun die Webseite oder den Twitter-Account mit neuen Informationen füllten. Im Forschungsprojekt »News-Stream« entwickeln das Fraunhofer IAIS und Neofonie zusammen mit Deutsche Welle und dpa neue Recherche- und Analysetools: Mit wenigen Klicks können Journalisten Tausende Inhalte aus Videoplattformen, RSS-Feeds, Medienarchiven oder sozialen Medien auf dem Bildschirm thematisch bündeln und sich in Echtzeit über aktuelle Ereignisse informieren.
Die Niederländische KLM Royal Dutch Airlines zum Beispiel nutzt Bots und AI für „menschliche“ soziale Kundendienste. Sogenannte „Roboter“ sorgen mit vorgeschlagenen Antworten, die vorher durch Daten von Kunden gesammelt wurden, für eine persönliche und schnelle Antwort auf den Plattformen der sozialen Medien. Grund: In den Sozialen Medien wie Facebook tummeln sich mehr zukünftige Kunden als User, die eine App der KLM benutzen.
Auch für Spielwaren: Spielwarenmesse – „Tec2play“ – Spielwaren mit künstlicher Intelligenz incl. Überwachung! – How screens turn kids into psychotic junkies!
Bots basteln sich also unzählige Profile in sozialen Netzwerken und tarnen sich als echte User. In sozialen Netzwerken tummeln sich immer mehr Social Bots – kleine Programme, die Informationen sammeln und sogar verbreiten, auch in politischen Diskussionen. Politische Gruppen könnten das für sich nutzen, doch neu ist dieses aktuelle Medienspektakel nicht. Denn bereits vor den Präsidentschaftswahlen in den USA sorgten die sogenannten Bots immer wieder für Diskussionen. Social Bots kann heutzutage jeder kaufen.
Auch Dating-Netzwerke sind potentielle Ziele von Bots. Dort schreiben sie wahllos Nutzer an und versuchen, sie beispielsweise auf Porno-Seiten zu locken. „Das ist extrem schädlich für die Netzwerke“, sagte der Social-Media-Experte Lutz Finger bereits im Januar 2015 in einem Interview mit dem Thema: Die Meinungsmaschinen sind unter uns. Auch Bots, die auf Shopping-Websites wie Amazon oder Zalando Rezensionen schreiben, gibt es längst.
Die aktuelle Kritik bezieht sich auf „Meinungsbots“. Damit sind Skripte oder Computerprogramme gemeint, die unter falschen oder erfundenen Identitäten in sozialen Netzwerken wie Twitter oder Facebook den Eindruck erwecken, sehr viele Menschen würden eine bestimmte Meinung vertreten, was aber tatsächlich nicht der Fall ist. Doch schon bei den vielen Bewertungsportalen sollte man vorsichtig sein, denn auch hier ist es schon längst kein Geheimnis mehr, dass die „menschlichen“ Bewerter durch Computersysteme abgelöst wurden. Wer es sich leisten kann, der kauft sich ein Programm. Sogar Amazon bietet diese Bots in Massen an.
Sogar wir Netzfrauen hegen den Verdacht, dass manche Trolle sich eines Bots bedienen, denn komischerweise wird alle 4 Minuten eine neue Seite auf Facebook erstellt, die dann wieder mit den gleichen Kommentaren unter unseren Beiträgen erscheint.
Auch die Medien sind sich in dem Forschungsprojekt »News-Stream einig, dass der Journalismus mit zukunftsfähigen Big-Data-Werkzeugen ausgestattet werden muss, um die journalistischen Kernaufgaben zu sichern und auszubauen. Das ist von hoher technologischer, aber auch gesellschaftlicher Relevanz, so das Projekt. Im Forschungsprojekt News-Stream entwickeln das Fraunhofer IAIS und Neofonie zusammen mit Deutsche Welle und dpa neue Recherche- und Analysetools, die dann den User in den sozialen Medien genau das liefern sollen, was sich der User wünscht. Ist dies nicht auch eine neue Art der „Meinungsbots“?
Laut einer Berechnung der Volkswirte der Bank ING-Diba bedroht die sich zunehmend beschleunigende Technologisierung mittel- und langfristig sogar mehr als die Hälfte aller Arbeitsplätze in Deutschland. Von den 30,9 Millionen sozialversicherungspflichtig und geringfügig Beschäftigten, die in der Untersuchung berücksichtigt wurden, würden demnach 18 Millionen in den kommenden Jahren und Jahrzehnten durch Maschinen und Software ersetzt. Darunter auch Journalisten!
Ein Roboter „denkt“ zwar, kann aber immer nur so schlau sein wie der Mensch, der ihn programmiert hat. Das Ziel ist, bestimmte Aspekte des menschlichen Denkens auf Computer zu übertragen und somit Maschinen zu bauen, die eigenständig Probleme lösen können. Dass künstliche Intelligenzen durch ihre wachsenden Fähigkeiten immer menschenähnlicher werden, hat den berühmten britischen Physiker Stephen Hawking bereits Ende 2014 zu einer Warnung veranlasst.
Der Suchmaschinenkonzern Google will die weltbeste künstliche Intelligenz schaffen, Computer den gesunden Menschenverstand lehren – und baute dafür in Zürich ein neues Forschungszentrum. Google will so das Wettrennen der großen Tech-Konzerne gewinnen. „Dank maschinellem Lernen haben Computer auf all diesen Gebieten große Fortschritte gemacht und in spezifischen Bereichen wie etwa dem Go-Spiel sind sie dem Menschen sogar überlegen,“ so Emmanuel Mogenet. Seit Juni leitet der Franzose das neue europäische Forschungszentrum von Google in Zürich. Wir müssen umdenken: Computer sind nicht mehr einfach die dummen Kisten. Sie holen rasch zu uns auf.“
Selbstfahrende Autos werden die berufliche Zukunft menschlicher Lkw-, Bus- und Taxifahrer sicherlich gefährden. Die Fortschritte in der Computertechnik sind unaufhaltsam und bereits im Jahr 2030 könnten fahrerlose Fahrzeuge allgegenwärtig sein.
„Maschinen spielen eine immer wichtigere Rolle, aber sie werden auch immer komplexer. Das stellt neue Herausforderungen an die Kooperation zwischen Mensch und Maschine. Lernfähige Systeme, die verschiedene Situationen erkennen und sich ihnen anpassen, können bekannte Automationsprobleme lösen. Ein wesentlicher Aspekt dessen ist jedoch, dass nicht nur der User die Maschine, sondern dass die Maschine auch den Zustand des Users versteht. Wir haben jetzt den ersten Schritt zur Erreichung dieses Ziels vollzogen“, fasst Jessica Schwarz vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE in Wachtberg südlich von Bonn zusammen. Siehe Computer werden in der Lage sein, den Geisteszustand eines Menschen zu bewerten
Sprachverarbeitung kann ein großer Teil dessen sein, wie wir mit spezieller Software interagieren werden. Das ist auch der Grund, warum Google und Amazon sich so sehr auf diese Technologie konzentrieren.
Den folgenden Beitrag, der sich genau mit dem Schlüssel zu Sprach-Algorithmen beschäftigt, haben wir für Sie übersetzt.
Der Schlüssel zur künstlichen Intelligenz mit menschenähnlicher Sprache
Es gibt ein generelles Einverständnis darüber, dass Sprache der Schlüssel zu künstlicher Intelligenz (Artificial Intelligence = AI) ist. aber wer hat den Schlüssel zu Sprach-Algorithmen oder zu Menschen? Gemäß dem Hype, der um sie gemacht wird, liegt der Schlüssel zum automatisierten Verständnis der natürlichen Sprache in riesengroßen Dateien, die Millionen von Wörtern enthalten, die mit Algorithmen einer Lernmaschine verbunden sind. Wenn Sie dieser Geschichte Glauben schenken, können solche Algorithmen die Feinheiten einer Sprache so gut lernen, dass sie zwar nicht gerade den nächsten Man Booker Prize gewinnen, aber wenigstens eine gute natürliche Sprach-Schnittstelle für eine Computer-App erzeugen.
Immerhin ist dies eine Wahrheit, die wesentlich modifiziert, angepasst und in gewissem Maße überholt wird. Erfolgreiches Verständnis natürlicher menschlicher Sprache muss mehr umfassen als nur Wörter und Algorithmen. Sprachverständnis umfasst Wörter und Sätze sowie sozialen und Gesprächs-Kontext. Das bedeutet für die Firmen, die ein qualitativ hochwertiges Verständnissystem natürlicher Sprache benötigen, dass ihnen am besten mit einer regelbasierten Plattform gedient ist, besonders wenn sie nicht die nötigen Datenmengen besitzen, die statistische Systeme benötigen.
Warum also gibt es diesen Algorithmen-Hype?
Vielleicht weil statistische Algorithmen äußerst nützlich für gewisse Zwecke sind z. B. bei einer assistierenden und begleitenden Analyse von großen Sprachdaten-Sammlungen. Zudem bieten neurale Netzwerk-Applikationen sehr eindrucksvolle Ergebnisse. Solche Algorithmen haben Spracherkennungssysteme beträchtlich verbessert, die Technologie zum Abbilden von Soundsystemen, um Textarten zu erkennen, was ein erster Schritt zur Entwicklung von Sprache ist.
Aber wie steht es mit den nächsten wichtigen Schritten, nämlich den Sinn der Worte, Phrasen und Sätze in einem ganzen Dialog zu erfassen? Schließlich erwecken Bezeichnungen wie „Neurales Netzwerk“ und „Tiefgehendes Lernen“ im Zusammenhang mit der Spracherkennung den Eindruck, dass mehr Ehrgeiz hinter ihnen steckt als nur das Konvertieren von Sounds in einen Text: eine menschenähnliche Fähigkeit, die tiefergehenden Aspekte der Sprache direkt durch Sprachdaten bewältigen zu lernen. Wir wissen nicht, was die zukünftige Forschung bringen wird, aber momentan ist dies immer noch Science Fiction.
Die Herausforderung, Sprachen zu sprechen und zu verstehen, ist genau das, was die meisten Menschen so fasziniert: ihre überraschende Vielfalt, die sich oft dort zeigt, wo man sie am wenigsten erwartet. Laut dem Oxford Dictionaries Blog gibt es 22 verschiedene Weisen, „yes“ auf Englisch zu sagen. Die Ausdrucksweisen dieses grundlegenden Worts umspannt eine erstaunliche Menge an Variationen, vom alltäglichen „OK“ zum, archaischen „yea“ und zum erzbritischen „righto“ bis hin zu linguistischen Raritäten wie „10-4″ [~“I understand“) und „fo’shizzle“ (~“for sure“). Wir kommunizieren selten mit nur einzelnen Worten. Die wahre Herausforderung für automatisierte Systeme liegt nicht speziell in dem einzelnen Wort, sondern darin, wie es mit anderen Wörtern kombiniert wird und eine Bedeutung schafft, und in ihrer Abhängigkeit vom Kontext.
Das fehlende Stück der Gleichung ist der menschliche Faktor. Das Ziel automatisierten Sprachverständnisses ist es, sich dem menschlichen Umgang mit der Sprache in Dialogen anzunähern. Woher haben Menschen diese Fähigkeit? Menschen sind von Natur aus dazu vorbestimmt, Sprachen zu lernen, aber dieser Vorgang beinhaltet mehr als nur die Anwendung eines Algorithmus oder von Daten. Kinder haben zwar ein angeborenes Geschick zum Sprachenlernen, aber der wahre Schlüssel dazu ist die Familie. Sprachenlernen und das Verstehen hängen eng zusammen. Darum sprechen und verstehen Kinder die Sprache ihres sozialen Umfelds, während sie aufwachsen. Zudem erfordert das Lernen einer Sprache Zeit. Während eines Zeitraums mehrerer Jahre, von der Geburt bis zur Schulreife, werden Kinder mit Millionen von Wörtern pro Jahr konfrontiert. Wir wissen um dessen Bedeutung, weil das Vokabular von Kindern abhängt von der Zahl der Wörter, die ihre Bezugspersonen verwenden, wenn sie mit ihnen sprechen. Dies sind natürlich nicht beliebige Wörter, aber Phrasen und Sätze, vermittelt in einem sozialen, kommunikativen Zusammenhang.
Genau wie ein Kind, das die Sprache lernt, benötigt [auch] ein künstliches System für natürliches Sprachverständnis die Aufsicht und Prüfung durch den Menschen. Sogar ein statistischer Algorithmus, der durch Daten lernt, kann dies nur tun durch strukturelle Trainingsdaten, die sorgfältig durch Menschen für bestimmte Zwecke zusammengestellt wurden. Kurz gesagt: Wenn sie menschenähnliche Sprachfähigkeiten haben wollen, benötigen Sie Menschen, weil Menschen unerlässlich sind für natürliche Systeme von Sprachverständnis, egal ob sie auf Statistik oder auf Regeln basieren. Menschen werden benötigt, um Daten auszuwählen und zusammenzustellen, bevor [überhaupt] ein Algorithmus wirksam sein kann. Menschen müssen die Ergebnisse auswerten und sicherstellen, dass das System Kontext und Regeln berücksichtigt. Nur dann ist es möglich, wirklich menschenähnliches Verstehen zu vermitteln. Dennoch sollten die Ähnlichkeiten zwischen statistischen und regelbasierten Systemen nicht überbewertet werden. Statistische Systeme erfordern riesengroße Datenmengen, was erklärt, warum so viele Technologie-Giganten ihre Kunden und Nutzer dazu ermutigten, per Text und Stimme durch ihre Systeme zu interagieren. Allein wenn man nur Datensammlungen und maschinelle Lern-Algorithmen verwendet, erhält man nicht immer die Ergebnisse, die man erwartet. Dies haben Microsoft und Facebook schon herausgefunden.
Bei einem gemischten Verfahren, bei dem man sowohl regelbasierte Algorithmen einsetzt, die durch menschliche Experten entwickelt wurden, und statistische Algorithmen, wo angemessen, einsetzt, zeigen sich deutliche Vorteile gegenüber rein statistischen Systemen. Der Aufbau solch gemischter Systeme erfordert weniger Daten und möglicherweise auch weniger Zeit. Es kann sich auch entscheidend auf das Endergebnis auswirken, welche Entwicklungsverfahren man wählt. Einige Plattformen für die natürliche Sprachentwicklung beinhalten nicht nur diese Verfahren selbst, sondern auch aufbereitete Datenquellen und die Verfahren, diese auszuweiten. Mit einem regelbasierten Algorithmus, gekoppelt mit maschinellen Lern-Algorithmen, aufbereiteten Daten und einer Entwicklungsplattform mit einer ausgereiften grafischen Schnittstelle für Nutzer können Menschen leicht die Intelligenz konstruieren, die hinter Kommunikationen zwischen Mensch und Maschine steckt, um sicherzustellen, dass Anwendungen natürlicher Sprache den Zusammenhang einer Unterhaltung angemessen verstehen – und dies zu jeder Zeit.
Social Bots – die unechten Freunde im Netz werden immer mehr – von 2013 (!)
THE KEY TO AI WITH HUMAN-LIKE LANGUAGE UNDERSTANDING? HUMANS
GARD JENSET dataconomy
There is general agreement that language is the key to AI, but who holds the key to language – algorithms or people?
According to the hype, the key to automated natural language understanding lies in vast data collections containing millions of words coupled with machine learning algorithms. If you believe this version of the story, such algorithms can automatically learn the intricacies of language well enough to, if not write the next Man Booker Prize winner, at least provide a decent natural language interface to a computer app.
However, this is a truth with substantial modification, adjustment, and a certain amount of refitting. Successful human-like natural language understanding must encompass more than just words and algorithms. Language understanding involves words, and sentences, as well as social and dialogue context. This means that most companies that need a high-quality natural language understanding system might be best served by a rule-based platform, especially if they do not possess the substantial amounts of data required by statistical systems.
So why the algorithm-hype?
Perhaps because statistical algorithms are supremely useful for some purposes, such as aiding and guiding analysis of big collections of language data. And for some applications, neural network algorithms deliver very impressive results. Such algorithms have vastly improved speech recognition systems, the technology for mapping sound waves to text characters, which is the first step in processing speech.
But what about the crucial next steps: actually making sense of the words, phrases, and sentences in a whole dialogue? After all, labels such as “neural network” and “deep learning” in the context of speech recognition give the appearance of something much more ambitious than converting sound waves to text: a human-like ability for learning to master the deeper aspects of language directly from language data. We do not know what future research will bring, but at the moment this is still science fiction.
The challenge with language is also what most people find so fascinating: its staggering diversity, which shows up where you would least expect it. According to the Oxford Dictionaries blog there are 22 different ways of saying “yes” in English. The ways of expressing this basic meaning spans a surprising amount of variation, from the mundane “OK”, to the archaic “yea” and the arch-British “righto”, to linguistic rarities like “10-4” and “fo’shizzle”. However, we seldom communicate in single words, and the real challenge for automated systems lies not in the words specifically but how they combine to form meanings, as well as their dependence on context.
The missing piece of the equation is the human factor. The aim of automated natural language understanding is to approximate human handling of language in dialogues. So where do humans get this ability from? Humans are preconditioned to learn language, but the process involves more than simply applying an algorithm to some data. Although children have an innate knack for learning languages, the key to language learning is family.
Language learning and understanding are contextual, which is why children grow up speaking and understanding the language spoken in their surroundings. Also, learning a language takes time. Over a period of several years, from birth to school age, children are exposed to millions of words directed at them every year. We know that this matters because children’s vocabularies depend on the number of words their carers use when they talk with them. These are of course not random words, but phrases and sentences presented in a social, communicative context.
Just like a child learning a language, an artificial system for natural language understanding needs human supervision. Even a statistical algorithm that learns from data can only do so from structured training data carefully curated by humans for some specific purpose. In short, if you want human-like language abilities, you need humans, because humans are indispensable for natural language understanding systems, whether statistical or rule-based.
Humans are required for selecting and curating data before an algorithm can be effective. Humans must evaluate the results and make sure the system takes context and company business rules properly into account. Only then is it possible to deliver truly human-like understanding.
Nevertheless, the similarities between statistical and rule-based systems should not be overstated. Statistical systems require large amounts of data, which helps explain why so many tech giants have been encouraging customers and users to interact via text and voice over their systems. However, using only data collections and machine learning algorithms does not always yield expected results, something Microsoft and Facebook have already discovered.
Taking a hybrid approach of using both a rule-based algorithm created by expert humans and statistical algorithms where appropriate, gives a number of key advantages over purely statistical systems. Building such hybrid systems requires less data and might well take less time.
The choice of development tools can also make a big difference to the final result. Some natural language development platforms include not only the development tools themselves, but also curated data resources and the tools for expanding them. With a rule-based algorithm, coupled with machine learning algorithms, curated data and a development platform with a sophisticated graphical user interface, humans can easily construct the intelligence behind human-machine conversations to ensure that natural language applications properly understand the context of the conversation – every time.
Netzfrauen Ursula Rissmann-Telle und Doro Schreier
Dazu auch:
Die NSA hat ein riesiges Abhörzentrum in den USA und Sie sind ein Teil davon!
Aus dem „Weißen Haus“: Die Entfesselung der Kraft von ‚Big Data‘ – George Orwells „1984“
1 Kommentar » Schreibe einen Kommentar