„Hey, Nutzer!“ – Aktive Ansprache besser gestalten

Es gibt Dinge, von denen lasse ich mich gerne wecken. Von der aufgehenden Morgensonne beispielsweise. Oder vom Geruch von frischem Kaffee.

Nicht so gerne werde ich von diesem Satz geweckt:
“BLUETOOTH-VERBINDUNG KONNTE NICHT HERGESTELLT WERDEN!”

Genau diesen Satz plärrte mein Amazon Echo in maximaler Lautstärke kürzlich nachts um halb 1 durch die Wohnung. Und das nicht nur ein mal, sondern mit etwa einer halben Minute Abstand immer wieder. Nachdem ich im Halbschlaf vergeblich versucht hatte, Alexa mit der Mobile-App zum Schweigen zu bringen musste ich am Ende doch aufstehen und den Netzstecker ziehen.

Weniger geduldige Zeitgenossen hätten den Echo möglicherweise direkt aus dem Fenster geworfen. Ich gebe zu, dass ich auch kurz darüber nachgedacht habe. Zum Glück bringe ich aber ein Interesse an Sprachassistenten mit (und habe eine tolerante Ehefrau).

Aus Fehlern lernen

Am nächsten Morgen nach einer Extra-Portion Koffein überlegte ich dann, was hier schief gelaufen ist – und was man daraus für die Entwicklung von Sprach-Anwendungen lernen kann.

Die technische Analyse ist in dem Fall nicht sonderlich schwierig: Ich hatte am Nachmittag zuvor meinen Echo mit einem Bluetooth-Transmitter verbunden. Ich wollte damit das Kabel-Gewirr meiner Musik-Anlage ein wenig übersichtlicher gestalten und den Echo zur Musik-Wiedergabe nutzen. Das klappte auch ganz gut – nur hatte ich den Bluetooth-Transmitter nach einigen Tests wieder vom Strom getrennt und damit anscheinend meinen Echo nachhaltig verwirrt.

Aktive Ansprache gestalten

Viel interessanter ist aber die Frage, was man daraus als Gestalter und Entwickler von Sprach-Anwendungen lernen kann.

Auf diesem Blog wurde schon einiges über die Gestaltung von Dialogen geschrieben. Das ist schon eine Fachdisziplin für sich und durchaus anspruchsvoll. In einem Fall wie diesem müssen wir noch einen weiteren Aspekt mit betrachten: Wann und wie darf mich ein Sprachassistent aktiv ansprechen?

Es gibt durchaus einige Situationen, in denen es Sinn macht, dass ein Sprachassistent nicht nur reagiert, sondern mich auch ohne direkte Aufforderung anspricht.

Beispiele:
– Ein Anruf kommt rein.
– Der Kuchen muss aus dem Ofen.
– Ich möchte an einen Termin erinnert werden.
– Eine Maschine droht zu überhitzen.

Sprache hat dabei den großen Vorteil, dass sie meine Aufmerksamkeit auch dann aktivieren kann, wenn ich gerade mit etwas anderem beschäftigt bin. Das kann in manchen Situationen genau richtig sein – aber manchmal eben auch total daneben.

Wenn ich also eine Sprach-Anwendungen entwickele, die eine aktive Ansprache des Nutzers vorsieht, dann sollte ich mir dabei einige Fragen stellen:
– Muss der Nutzer wirklich aktiv angesprochen werden?
– Wie dringend ist die Information, die der Nutzer bekommen soll? Was passiert, wenn er sie nicht sofort bekommt?
– Ist Sprache die beste Art, den Nutzer auf etwas hinzuweisen? Oder gibt es andere, weniger aufdringliche Wege? (z.B. eine SMS oder einen Kalender-Eintrag)
– Kann die Anwendungen prüfen, ob es gerade passt? (z.B. über die Uhrzeit oder über den Kalender)

Hätte der Designer der Bluetooth-Kopplungs-Funktion sich diese Fragen vorher gestellt, dann wäre mir (und bestimmt auch einigen anderen Alexa-Nutzern) ein nächtliches Erwachen vielleicht erspart geblieben.

Wie werde ich VUI Designer für digitale Sprachassistenten?

Die aktuelle Antwort dazu lautet: Wie immer du willst! Denn den VUI-Designer (VUI = Voice User Interface), gibt es als Ausbildungsberuf oder Titel „noch“ nicht. Dabei ist er aber für den aktuell schnell wachsenden Market der digitalen Sprachassistenten oder auch „virtueller Assistenzsysteme“ wie Amazon Alexa oder Google Assistant, bitter nötig.

„Medien für das Auge“ haben im Laufe ihrer Geschichte eine ganze Reihe an Berufen hervorgebracht. Ob es der „Drucker“ war der die Zeitung herstellt, oder bis heute der Screen Designer. Für hörbare Medien überließ man das Feld dann den Meistern der vielen Knöpfe im Tonstudio oder anderen kreativen Köpfen wie Linguisten, Sprechern, Sängern oder Journalisten.

Die Gestaltung des Mediums „Ton“ erfordert andere/weitere Kenntnisse als die des Mediums Bild. Die Gestaltung des Mediums „Sprache“, erfordert dann nochmals weitere Kenntnisse. Letztendlich auch weil die gesprochene Sprache das emotionalste und sensibelste Medium für den Menschen ist, so ist auch geschriebene Sprache nicht gesprochene Sprache, weil niemand schreibt wie er spricht oder umgekehrt.

Es braucht auch bei der Gestaltung der gesprochenen Sprache besondere Kenntnisse wie auch bei der Gestaltung einer möglichen Nutzerführung oder Nutzerschnittstelle per Sprache. Entsprechend wirkt sich dies alles schlussendlich dann auch auf die Nutzung von Anschlussmedien aus, wie z.B dem Bildschirm, oder auch auf die Form der Inhalte, so das zum Beispiel aus dem bisher Schlagworten basierten und identifizierenden Online Marketing, ein in natürlicher Sprache und auf Absichten basiertes Intent Marketing wird.

Smart Voice (natürliche gesprochene Sprache in der Mensch-Maschine Kommunikation), ist keine in sich geschlossene Blase, sondern ein Medium welches übergreifend über alle möglichen Systeme, Medien, Prozesse und/oder Inhalte funktioniert und diese verändert. Nicht mit einem Schlag wie viele Dampfplauderer es jetzt herbeireden, aber merklich immer mehr und in ein paar Jahren ist bei vielen Menschen Smart Voice fast unbemerkt in ihre Leben eingezogen, so wie es bisher jedes Medium getan hat.

Was gilt es also zu wissen/können um sich VUI-Designer nennen zu können/dürfen? Nun, wie zu Anfangs erwähnt, gibt es da keine feste Definition. Aber versuchen wir es trotzdem mal…


– Gestaltung von Bildschirmmedien

Warum das? Ganz einfach, weil „Smart Voice“ oder „Sprachassistenz“ nicht bei „nur Stimme aufhört“. Die meisten Anwendungsfälle sind sogar für „nur Stimme“ gar nicht vollumfänglich geeignet und brauchen entsprechende weiterführende Medien wie z.B einen Bildschirm. Daher gilt es den Bildschirm auf „Voice First“ hin zu gestalten und in den Anwendungsfällen den Sattelpunkt auszuloten wo „nur Stimme“ oder eben „Stimme und mehr“ herhalten muss. Daher ist das Wissen über Screen Design ein nötiges an dieser Stelle. Es sei denn das man wirklich nur Anwendungsfälle herstellt die zu 100% über nur Stimme abzufackeln sind. Was aber wohl doch eher selten der Fall sein wird.

– Gestaltung von Audiomedien

Logischerweise braucht ein Medium fürs Ohr auch das Wissen darüber wie man es gestaltet. Ob nun über Anweisungen wie SSML oder über die Manipulation in einem Editor für Audiodateien. Gesprochene Sprache muss stets gut klingen und dem Anwendungsfall, wie auch der Persönlichkeit des Nutzers oder des Anwendungsfalls entsprechen. Es wäre doch sehr merkwüdig wenn z.B eine Sprachassistent zum Motivieren eines Nutzers extrem langsam und langweilig klingen würde. Oder wenn eine Marke für Luxusartikel seinen Sprachassistenten mit Worten aus der Unterschicht auskleiden würde. Oft sind besonders bei der Stimme schon kleine Nuancen wichtig um die richtige Aussage zu treffen oder eben nicht zu treffen.

– Gestaltung von Sprache

Nicht nur grundlegend, sondern grundlegend grundlegend ist das Wissen über das Wesen der Sprache. Wer also z.B Linguist oder gar Computerlinguist ist, hat hier schon mal einen großen Vorteil. Eigentlich ist das Wissen über die Sprache der Ausgangspunkt für alles andere, denn ohne dies, braucht es den ganzen Rest nicht. Die Akzeptanz eines Mediums wie einem digitalen Sprachassistenten entscheidet sich stets an der Barrierefreiheit seiner Nutzungsmöglichkeit. Funktioniert die Benutzerschnittstelle nicht, funktioniert der ganze Rest auch nicht, egal wie toll alles „dahinter“ auch sein mag. Ergo: Ohne Wissen über Sprache, kein VUI-Design.

– Gestaltung von Nutzerführung

„Customer Journey“ und „User Experience“ gehören zum unbedingten Wortschatz eines jeden Bullshit Bingos im Medienbereich. Nicht nur weil es Spaß macht, sondern weil es in der Tat nicht unwichtig ist wie man den Nutzer leitet. Insofern die Sprache mit dem Nutzer funktioniert, muss die Nutzerführung dafür sorgen dass der Nutzer nun nicht wieder verloren geht. Anderseits gibt es Millionen von Beispielen bei denen die Nutzerführung eine echte Katastrophe ist, die Nutzer es aber dennoch „erlernt“ haben und am trotzdem Ball bleiben. So ist die Gestaltung der Nutzerführung also eine Gradwanderung zwischen „voll wichtig“ und „völliger Quark“. Ein versierter „UXler“ hat zwar ein besseres Auge für die Wünsche des Nutzers, kommt aber in der Regel vom Bildschirm und muss daher seine Grundlagen umstellen, was in der Regel mehr als schwer fällt. Ein Unternehmen welches sich also aufstellt um auch für Smart Voice zu entwickeln und dabei seine bereits vorhandene „UX“ Abteilung als Plusfunkt anführt, hat daran vorbeigeschossen. Es braucht viel mehr als das!

– Psychologie & Didaktik

Kein Medium ist so nah am Menschen, so emotional und so sensibel wie die gesprochene Sprache. Wer hier mit einem völlig unpersonalierten Phrasenhammer kommt, wird grandios scheitern. Der digitale Sprachassistent ist der „persönliche Assistent“ seines Nutzers und entsprechend muss eben genau diese Personalisierung die Grundlage für die Methodik und Gestaltung der Sprache zum Nutzer hin sein. Sensibilität ist oberstes Gebot um ins Ohr des Nutzers zu kommen und sein Vertrauen zu gewinnen. Dazu bedarf es Wissen rund um das menschliche Wesen und seiner Denk- und Sprechweise. Der Mensch denkt und spricht in „Absichten“ (Intents). Diese Absichten zu erfüllen und den Nutzer so stark wie nur möglich zu personalisieren muss stets das primäre Ziel des VUI-Designers sein. Psychologie und Didaktik sind untrennbar mit dem Wissen über die Gestaltung von Sprache und auch die Gestaltung von Personas und Charaktären verbunden und daher genauso grundlegend grundlegend!

– Informatik & Prozessgestaltung

Um das gedachte für alle Menschen verständlich zu machen, braucht es eine „Formalisierung“. Jeder VUI-Designer der seine noch so genialen Einfälle nicht kommunizieren kann (Was ein Wiederspruch in sich ist!), dürfte am Ende in der Umsetzung seiner Gedanken ein großes Problem haben. Daher ist die Informatik die Wissenschaft die es braucht um die VUI-Ideen auf den kleinsten gemeinsamen Nenner zwischen Menschen und Menschen und zwischen Menschen und Maschinen zu bringen. Wer im Informatik Unterricht aufgepasst hat, dem werden spätestens jetzt „Graphen & Diagramme“ wieder schmerzvoll in den Kopf kommen.

Letztendlich bildet die Informatik dann auch die Brücke hin zur Programmierung. Um dies zu gestalten braucht es Verfahren die so flexibel wie nur möglich sind, so wie die Sprache es ja auch ist. Die erste Wahl dazu dürften „Design Patterns“ sein, da nur sie die in entsprechend vielen Varianten die Anwendungsfälle abbilden können. Einfach nur mit den beliebten Ablaufdiagrammen oder gar Bäumen zu hantieren, wäre viel zu kurz gedacht. Daher sind auch die momentan viel entwickelten graphischen Nutzeroberflächen für die Entwicklung von Alexa-Skills nur ein kleiner Teil des Kuchens die auch nur einfach Anwendungsfälle mit weniger Intelligenz abdecken können und werden. Viel Teig macht halt noch immer keinen guten Kuchen.


Was noch? Nun, das wird sich im Laufe der Zeit zeigen. Noch ist die Branche jung und es braucht noch viele Ideen, Entwicklungen, Standards und Mut damit man Smart Voice und damit auch den VUI-Designer überhaupt beschreiben kann. So wie der Screen-Designer seinen Weg als Berufsbild gefunden hat, so wird auch der Smart Voice/VUI-Designer seinen Weg finden, das ist sicher.

Und was ist jetzt mit „Programmierung“? Was soll damit sein? Ein Architekt baut seine Häuser schließlich ja auch nicht selbst. Wer meint ein guter VUI-Designer zu sein, wird kein guter Programmierer sein und umgekehrt. Die Welt der Medien und auch des Smart Voice Segments ist viel zu komplex als dann ein Mensch alleine dieses Wissen innehaben könnte. Es braucht viele Köpfe um Kompetent in allem zu sein. Letztendlich schadet es nicht auch Programmieren zu können um die Grenzen der Systeme und die Realisierbarkeit der Ideen besser abschätzen zu können. Wer jedoch bei der Projektentwicklung eines Smart Voice Projekt den Programmierer nicht eh von vorneherein mit an Bord hat, ist selbst schuld.

Auch wenn die Programmierung das kleinste Todo am Ende der Prozesskette ist, so sollte sie zwingend einen Platz in der Projektentwicklung haben um beratend einzugreifen. Ein Programmierer sollte jedoch, niemals der Kopf eines Smart Voice Projekts sein, ebenso wenig wie ein Marketer, ein Grafiker oder ein BWLer *Zwinckersmile*.
In diesem Sinne, auf auf und werde VUI-Designer. Es wird dein Schaden nicht sein! Hast du noch Ideen um das Berufsbild des VUI-Designers zu deifnieren? Schreib uns: info@internet-of-voice.de

Sprachassistent Alexa sei Dank: Aus Content-Marketing wird Intent-Marketing

Wobei das nicht ganz richtig ist, denn Intent-Marketing ist Content-Marketing, nur eben feiner, spezialisierter und an den Intents (Absichten) des Nutzers orientiert und damit ein gewichtiger neuer Arm des Marketings. Aber warum und was hat Alexa oder jeder andere digitale Sprachassistent damit zu tun?

Nun, spricht der Mensch mit einem anderen Menschen, führt er eine Unterhaltung. In einem solchen Dialog äußert er Absichten (Intents). Dies oft hintergründig, so das den Beteiligten an der Unterhaltung die Absicht nur aus dem Kontext des Dialogs klar ist.

Der digitale Sprachassistent wie Alexa es ist, ist nun erstmals ein Kanal zum Nutzer der mit ihm in natürlicher gesprochener Sprache spricht und diese Intents entsprechend verstehen und umsetzen können muss. So hat man die Grundfunktion in der Programmierung von Sprachassistenten auch folgerichtig „Intent“ genannt. Dieser Intent in der Programmierung besteht aus der in Sprache formulierten Absicht und deren im entsprechenden Kontext formulierten möglichen sprachlichen Referenzen. Man möge sich denken dass diese Referenzen dann „Antworten“ wären. Jedoch besteht gesprochene Sprache nicht ausschließlich aus Fragen, sondern aus vielem, wie z.B auch Gegenfragen, Befehlen, Quittungen oder Statements etc.

Das traditionelle Marketing funktioniert da komplett gegensätzlich. Es klatscht dem Nutzer einfach eine platte Wahrheit hin. Zum Glück geht Content-Marketing da einen Schritt weiter und macht aus platten Phrasen eine oft eher nützliche Information in einer eher menschlicheren Form die auch barrierefreier vom Menschen angenommen wird.

Intent-Marketing wird nicht kommen, es ist schon da! Es erweitert das Content-Marketing um eine noch natürlichere und menschlichere Form der Kommunikation mit ihm und zwar über digitale Sprachassistenten, weil diese eben mit dem Nutzer natürlich Sprechen können und auf Intents basieren.

Warum aber sollte das wichtig sein? Nun, in erste Linie weil noch nie eine Technik so schnell angenommen wurde wie digitale Sprachassistenten und bis 2020 geschätzt mindestens ein Viertel der Weltbevölkerung in irgendeiner Form mit Sprachassistenz umgehen sollen wird. Dies liegt primär an der fast völligen Barrierefreiheit dieses Kanals und an der Tatsache das die größten der großen Digitalkonzerne Ressourcen von titanischem Ausmaß in diese Entwicklung stecken. Digitale Sprachassistenten und damit Intent-Marketing ist gekommen um zu bleiben.

Jede Marke und jeder Unternehmen welches jetzt den Wert von natürlicher gesprochener Sprache und den digitalen Sprachassistenten als persönliche sprechende Assistenten eines jeden Nutzer erkennt und lernt, wird in Zukunft gute Chancen haben als „Punkt der Erfüllung“ auch beim Nutzer zu landen und nicht nur der auf der Liste der zweite oder dritte Platz zu sein der vom Sprachassistenten eh nicht ausgesprochen wird.

Also machen! Jetzt!

Fragen? Workshops? Vorträge? Schreib an info@internet-of-voice.de oder info@intent-marketing.de

Internet of Voice expandiert in die spanischsprechenden Länder

Mit dem fast gleichzeitigen offiziellen Start von Google Home / Google Assistant und Amazon Echo / Amazon Alexa, startet nun auch Internet of Voice in die spanischsprechenden Märkte. Allen voran: Spanien und Mexiko!

Entsprechend startet nun auch Internet of Voice in den spanischsprechenden Märkten durch. Unter https://internet-de-voz.es wird es demnächst die entsprechende Projekthomepage geben. Eine Produkthomepage ist mit https://bocina-inteligente.es als spanisches Pendant zur deutsche Produktbasierten Internetseite https://digitale-sprachassistenten.de.

Der spanischesprechende Markt ist ca. 5 Mal so große wie der der deutschsprachige. Des Weiteren nutzen die „Südländer“ derartige Technik in höherer Frequenz als in der DACH Region. Da passiert also noch sehr, sehr viel…

SEO für Digitale Sprachassistenten: Der Punkt der Erfüllung und Google Direct Answers

Conversational und gradlinige Unterhaltungen per Bildschirm sind kein Voice!

Sprache ist mehr ein Graph mit vielen Querverbindungen als ein Baum. Niemand schreibt wie er spricht, daher lassen sich Chatbots auch nicht mit Sprachassistenten gleichsetzen oder eben mal so mitabhandeln. Sprache ist chaotisch aber auch hochemotional, motivierend und hochgradig persönlich und vor allem direkt im Ohr den Empfängers. Also eigentlich genau das, was das Marketing sich wünscht. Content-Marketing in einem Dialogmodell ist unabdingbar um den Kanal der Digitalen Sprachassistenten für sich einzunehmen. Ein Fakt den aktuell nur sehr wenige verstehen oder gar bedienen können. Da hilft es auch nicht wenn die Redaktionen falsch voneinander abschreiben um die Welle mitzureiten oder man aus der Webseite einen Skill erstellen lässt. Das Ergebnis wäre/ist da nur eine weitere von vielen schlechten Sprachanwendungen die Nutzer und Anbieter gleichermaßen frustrieren.

SEO ist für das Online-Marketing eines des wichtigsten Arbeitsfelder, doch genau an diesem Bein sägt der digitale Sprachassistent, da die meisten Skills/Action (=Funktionen der Sprachassistenten) garkeine Suchmaschine mehr nutzen, sondern eigene Ressourcen.

Robert C. Mendez, Speaker für Digitale Sprachassistenz auf der CMCX 2017, webinale 2018, Online b2b conference 2018 u.v.m

Die Eigenschaften von Sprache müssen verstanden werden um zu sehen das dem Nutzer vom Sprachassistenten wie Amazon Alexa oder Google Assistant keine Auswahl mehr geliefert wird wenn die Ausgabe nur „Voice“ ist, sondern nur noch ein einziges, möglichst optimales Ergebnis, den „Punkt der Erfüllung“, den die Voice First-Pioniere Internet of Voice schon lange behandelt und z.B auch der CMCX 2017 zugetragen haben. Genau dies zeichnet sich in den Entwicklungen der letzten Zeit bei den großen Suchmaschinen immer stärker ab.

Da ein Sprachassistent in erste Linie ein „Assitent“ ist, wird es an vielen Punkten so sein das die Ergebnisse selbst, nicht mal mehr bis zum Nutzer druchdringen, da die Maschine sie auswertet und erfüllt. z.B den automatischen Kauf eines ständig gebrauchten Produktes. Dies bedeutet schlicht, das die Suchmaschine dann nicht mehr den Nutzer zufriedenstellen muss, sondern den digitalen Assistenten. Und nein, der Bildschirm wird defitniv nicht sterben, da der Mensch nunmal auch Augen hat, die er behalten und einsetzen will und weil Sprache nun mal eben nicht für alle Anwendungsfälle effizient ist, aber für viele! Es ist also nicht die Frage OB ein Sprache in der Kommunikation mit der Maschine eingesetzt wird, sondern nur „bis zu welchem Grad“. Kapitän Picard ist da mit seinem fliegenden Schrotthaufen Entprise das entsprechende beste Beispiel.

Dann kommen auch noch solche Aussagen daher: “About 30% of searches will be done without a screen by 2020.” (Quelle: Mediapos). Wobei da bereits eher von 50% gesprochen wird.

Noch sind die Folgen und Eigenschaften der Sprachassistenten im Markt zu unerforscht/dynamisch um sagen zu können wie der Hase überall laufen könnte. Es braucht noch viel Diskussion. Die Voice-Provider selbst rätseln noch an ihren Diensten und die Schreiberlinge der technischen Dokumentationen können mit den Änderungen der Entwicklung kaum Schritt halten. Sicher ist jedoch, das wie man früher ein Schild an der Tür, ein Eintrag im Branchenbuch, eine Zeitungsanzeige und dann auch eine Webseite und evtl. App brauchte, nun auch den Kanal der Ditgitalen Sprachassistenten bedienen sollte. Eine Entwicklung die defitniv unumkehrbar ist und von den größten der Großen mit massiven Einsatz und Marktdruck angeschoben ist. Bis 2021 wird geschätzt das rund 2 Mrd. Menschen weltweit Sprachassistenten einsetzen. Also!? 😉

Onlinemeeting: Digitale Sprachassistenten und die Datenschutz-Grundverordnung / DSGVO am 11.04.18 um 14 Uhr

Die Datenschutz-Grundverordnung (=DSGVO) gespenstert grade durch das Internet und beschäftigt mit großen Augen und Ohren alle Unternehmen, Entwickler und vor allem Juristen die im Internet irgendwie tätig sind. Auch Digitale Sprachassistenten wie Amazon Alexa oder Google Assistant verarbeiten Daten, schliesslich ist der entstehende Aufwand und eine mögliche Abmahnungsgefahr nicht unerheblich. Der Aufklärungsbedarf ist also sehr hoch, da die DSGVO auch noch etliche Fragen offen lässt und an vielen Stellen unklar ist.

Entsprechend braucht es hier nochmal einen differenzierten Blick auf die Datenverarbeitung digitaler Sprachassistenten. Zu diesem Zweck wird es am 11.4.18 ab 14 Uhr eine Onlinekonferenz geben an dem jeder Interessierte teilnehmen kann.

Die Internetadresse zur Teilnahme wird einen Tag vor dem Termin per EMail an alle Teilnehmer versendet die sich im entsprechenden Newsletter auf dieser Seite eingetragen haben.

 Für möglichst wenig Störgeschräusche bitte mit Kopfhörern teilnehmen!

Ausschweifende Diskussionen dazu findet ihr auch in unserer Datenschutz-Grundverordnung (=DSGVO)

Voice Search ist keine Lösung im Online Marketing

Digitale Sprachassistenten sind In und bringen so einige Branchen in Bedrängnis, daher greift natürlich auch das Online-Marketing diesen Kanal auf und versucht in die Zukunft zu schauen. So greifen bekannte Speaker und Redaktionen das hippe Thema nur zu gerne auf und betten es in ihren Horizont ein, jedoch leider ohne Voice bzw. Digitale Sprachassistenten wirklich verstanden zu haben. Daher ist fast täglich zu lesen das „Voice Search“, das Thema der Stunde wäre um Marketing über Digitale Sprachassistenten möglich zu machen. Klar, schliesslich ist SEO im Online Marketing der Dreh und Angelpunkt des aktuellen Online-Marketings.

Aber … Digitale Sprachassistenten, nutzen nur zu einem kleinen Bruchteil Suchmaschinen. Die meisten Funktionen, Skills/Actions der Sprachassistenten nutzen keine Suchmashinen! Was also nun?

Und … dann wäre da noch die Tatsache, das Digitale Sprachassistenten, in ersten Linie „Assistenten“ sind und dem Nutzer so gut und genau wie möglich Informationen liefern die in einen „Dialog“ passen = Der Punkt der Erfüllung. Dies bedeutet schlicht das der Nutzer nur noch eine einzige Information vom Assistenten serviert bekommt und erst garkeine Auswahl mehr hat.

Wenn also nur noch ein Bruchteil der Sprachassistenten überhaupt eine Suchmaschine nutzen und diese dann auch garkeine Auswahl mehr liefern, sondern nur noch ein einziges Ergebnis, muss man wohl mit Recht fragen, was das Online-Marketing sich dabei denkt, nur an „Voice Search“ als Mittel der Dinge im Online-Marketing zu denken!?

Google selbst hat erst vor kurzem Änderungen bekanntgegeben die den „Punkt der Erfüllung“ bedienen und dazu dienen den Nutzer hochgradig zu personalisieren.

Dann wäre da noch… das es aktuell „keine“ Rankingfaktoren für Voice gibt. Wie kommt das Online-Marketing also darauf das traditionelle/bekannte Faktoren die gleichen auch für Voice wären, obwohl Voice und z.B Conversationel defintiv „nicht“ das Gleiche sind. Niemand schreibt wie er spricht! hm!?

Denkt mal drüber nach 😉

Internet of Voice beim IHK Digital Brunch – Online Marketing am 12.4.18 in Köln

Internet of Voice wird im Rahmen des Digital Brunch der IHK Köln den „Wake Up Call“ halten. Fühlt euch eingeladen 😀

https://www.ihk-koeln.de/I0210018003.AxCMS

 

Die erste Werbeform für Digitale Sprachassistenten ist da – Google Assistant Shopping Actions

Viel Spannung und Entwicklungsdruck liegt im Digitalmarkt. Digitale Sprachassistenten wie Amazon Alexa und Google Assistant treiben diesen Druck mit massiven Entwicklungen und Investitionen in Hochgeschwindigkeit an. Entsprechend sucht besonders das Online-Marketing nach Lösungen, auch über Sprachassistenten seine Umsätze zu sichern. Agressive und reichweitenstarke Werbeformen, wie sie aktuelle auf Bildschirmmedien verwendet werden, werden bei hochgradig personalisierten Sprachassistenten nahzu sinnlos und sind für den Nutzer extrem störend. Hinzu kommt bei vielen Anwendungsfällen der wegfall des Bildschirms und die blanke Elemenierung der Auswahlmöglichkeiten.

Aktuell gibt es weder feste Rankingfaktoren für die Suche per Sprache (Voice Search), noch Werbeformen. Doch nun bringt Google einen ersten Ansatz in Spiel der Vermarktung über Sprachassistenten möglich macht, die „Shopping Actions“.

Shopping Actions ist eine von Unternehmen buchbare Werbeform (Also nicht organisch), ähnliche wie z.B auch AdWords. Jedoch werden die Inhalte an den Google Assistant als Sprache bzw. als Voice-Ad ausgespielt. Shopping Actions kosten also Geld, jedoch immer erst dann, wenn ein Kunde auch gekauft hat (Pay per Sale).

Durch die breite Variablität dieser Funktion, wobei sich die Inhalte über viele Produkte/Leistungen und Händler verteilt, legt Google damit eine qualitativ bessere Funktion vor als Amazon es mit Alexa könnte. Bei Amazon hat der Kunde keine Wahl für die Quelle des Kaufes, bei Google Shopping Actions aber schon.

Spannend!