Online-Event: Smart Voice Panel – Marketing, am 27 Februar 2019

Die erste Folge unserer neuen Serie „Smart Voice Panel“ hat nicht nur allen Beteiligten Spaß gemacht, sondern anscheinend auch den Zuschauern. So erhalten wir jedenfalls sehr viel Zuspruch in unser Postfach.

So werden wir die Serie bis auf Weiteres, mit einer monatlichen Folge weiterführen und natürlich die Themen verfeinern und abwechseln. Dabei sind vor allem viele verschiedene Sichtweisen außerhalb unserer eigenen Filterblase wichtig. 

Um wirklich möglichst tiefe Einblicke zu erhalten, wird es kein Namedropping geben. Motivation und know how ist wichtiger, auch wenn das eine das andere ja nicht zwingend ausschliesst.

Grundsätzlich richtet sich die Serie an Unternehmen die in Sachen Smart Voice etwas bewegen/umsetzen möchten, aber natürlich auch an interessierte Nutzer der Systeme.

Die nächste Aufzeichnung zum Thema „Marketing“ findet am 27.2.19 ab 15 Uhr auf statt. Die Internetadresse zu der Aufzeichnung wird über unseren Newsletter bekanntgegeben.

Wir freuen uns in dieser Folge über die Teilnehmer:

  • Mirko Lange – Scompler GmbH
  • Daniel Mittendorf – mittendorf.net
  • Rainer Henze – laut.ag
  • Alexander Köhn – Nuuk GmbH
  • Robert C. Mendez – Internet of Voice (Moderation)

Interessierte können vor der Konferenz Fragen an die Redaktion senden, die dann eventuell in der Konferenz besprochen werden können. Bitte sendet eure Fragen an: expertentalk@internet-of-voice.de

Bis bald…

Online-Event: Smart Voice Expertenrunde am 23.1.2019

2018 is wech.. und war ein Jahr in dem viel passiert ist. Vor allem hat sich die entstehende Smart Voice Branche ein wenig professionalisiert und auch relativiert. Auch wenn digitale Sprachassistenten nachwievor ein in den Medien heiß gekochtes Thema sind, so hat sich doch gezeigt das weder Nutzer noch Unternehmen beim Thema Smart Voice wirklich angekommen sind und es noch viel zu tun gibt für die Macher der smarten Assistenten die Sprechen können.

Jedenfalls gibt es inzwischen in Deutschland Menschen und Unternehmen die sich dieser und vieler anderer Dinge in Sachen Smart Voice / Digitale Sprachassistenten bewusst sind und damit aktuell die einflussreichsten Macher im deutschsprachigen Raum sind. Einge davon finden sich nun zu einer Online-Konferenz zusammen und sprechen ein wenig über das was war und das was kommen muss. Lasst euch überraschen 🙂

Die Online-Konferenz findet am 23.1.19 ab 15 Uhr auf Skype statt und wird aufgezeichnet. Die Internetadresse zu der Aufzeichnung wird nach der Konferenz hier auf dieser Seite bekanntgegeben.

Interessierte können vor der Konferenz Fragen an die Experten senden, die dann eventuell in der Konferenz besprochen werden. Bitte sendet eure Fragen an: expertentalk@internet-of-voice.de


Bis bald…

Amazon Echo und Google Home erscheinen auf spanischsprechenden Märkten

Amazon Echo Plus

Die Digitalen Sprachassistenten Google Home und Amazon Echo werden nun in die ersten spanischsprechenden Regionen ausgerollt. Genauer gesagt in Spanien und Mexiko. Weitere Regionen sollen bald folgen. Der spanischsprechende Markt ist 5 bis 6 Mal größer als z.B der deutschsprachige. Auch ist die grundsätzlich die Frequenz der Nutzung der „Südländer“ solcher Technolgien wesentlich größer.

Google Home

Damit ist aber nicht nur gemeint das in diesen Regionen nur die Geräte wie Google Home und Amazon Echo verfügbar sind, sondern auch die entsprechenden Sprachen. Bisher hat nur Google Assistant die spanische Sprache unterstützt. Alexa bisher garnicht, das ändert sich nun. Amazon Echo war zwar bereits schon früher verfügbar, aber eben nur in Englisch. Google Home findet erst jetzt seinen Platz in diesen Märkten. Die Tatsache das beide Systeme unmittelbar miteinander offiziel gestartet werden, zeigt deutlich die starke Konkurrenz die sich die Konzerne machen. Weit abgeschlagen sind Apple oder Samsung noch nicht am Tortilla-Horizont erkennbar.

Auch wir, Internet of Voice (in Spanisch=Internet de Voz) expandiert entsprechend in diese Märkte und bietet zum Start einen produktbasierten Blog (bocina-inteligente.es = Intelligenter Lautsprecher) als spanische Alternative zu unserem deutschen Produktblog. Ebenso sind erste Partnerschaften und Veranstaltungen auf der Spur. Wir sind extrem gespannt wie die smarten Quatschdosen sich im spanischsprachigen Raum ausbreiten werden und freuen uns auf das was kommt!

Also: Hablamos Español!

 

SEO für Digitale Sprachassistenten: Der Punkt der Erfüllung und Google Direct Answers

Conversational und gradlinige Unterhaltungen per Bildschirm sind kein Voice!

Sprache ist mehr ein Graph mit vielen Querverbindungen als ein Baum. Niemand schreibt wie er spricht, daher lassen sich Chatbots auch nicht mit Sprachassistenten gleichsetzen oder eben mal so mitabhandeln. Sprache ist chaotisch aber auch hochemotional, motivierend und hochgradig persönlich und vor allem direkt im Ohr den Empfängers. Also eigentlich genau das, was das Marketing sich wünscht. Content-Marketing in einem Dialogmodell ist unabdingbar um den Kanal der Digitalen Sprachassistenten für sich einzunehmen. Ein Fakt den aktuell nur sehr wenige verstehen oder gar bedienen können. Da hilft es auch nicht wenn die Redaktionen falsch voneinander abschreiben um die Welle mitzureiten oder man aus der Webseite einen Skill erstellen lässt. Das Ergebnis wäre/ist da nur eine weitere von vielen schlechten Sprachanwendungen die Nutzer und Anbieter gleichermaßen frustrieren.

SEO ist für das Online-Marketing eines des wichtigsten Arbeitsfelder, doch genau an diesem Bein sägt der digitale Sprachassistent, da die meisten Skills/Action (=Funktionen der Sprachassistenten) garkeine Suchmaschine mehr nutzen, sondern eigene Ressourcen.

Robert C. Mendez, Speaker für Digitale Sprachassistenz auf der CMCX 2017, webinale 2018, Online b2b conference 2018 u.v.m

Die Eigenschaften von Sprache müssen verstanden werden um zu sehen das dem Nutzer vom Sprachassistenten wie Amazon Alexa oder Google Assistant keine Auswahl mehr geliefert wird wenn die Ausgabe nur „Voice“ ist, sondern nur noch ein einziges, möglichst optimales Ergebnis, den „Punkt der Erfüllung“, den die Voice First-Pioniere Internet of Voice schon lange behandelt und z.B auch der CMCX 2017 zugetragen haben. Genau dies zeichnet sich in den Entwicklungen der letzten Zeit bei den großen Suchmaschinen immer stärker ab.

Da ein Sprachassistent in erste Linie ein „Assitent“ ist, wird es an vielen Punkten so sein das die Ergebnisse selbst, nicht mal mehr bis zum Nutzer druchdringen, da die Maschine sie auswertet und erfüllt. z.B den automatischen Kauf eines ständig gebrauchten Produktes. Dies bedeutet schlicht, das die Suchmaschine dann nicht mehr den Nutzer zufriedenstellen muss, sondern den digitalen Assistenten. Und nein, der Bildschirm wird defitniv nicht sterben, da der Mensch nunmal auch Augen hat, die er behalten und einsetzen will und weil Sprache nun mal eben nicht für alle Anwendungsfälle effizient ist, aber für viele! Es ist also nicht die Frage OB ein Sprache in der Kommunikation mit der Maschine eingesetzt wird, sondern nur „bis zu welchem Grad“. Kapitän Picard ist da mit seinem fliegenden Schrotthaufen Entprise das entsprechende beste Beispiel.

Dann kommen auch noch solche Aussagen daher: “About 30% of searches will be done without a screen by 2020.” (Quelle: Mediapos). Wobei da bereits eher von 50% gesprochen wird.

Noch sind die Folgen und Eigenschaften der Sprachassistenten im Markt zu unerforscht/dynamisch um sagen zu können wie der Hase überall laufen könnte. Es braucht noch viel Diskussion. Die Voice-Provider selbst rätseln noch an ihren Diensten und die Schreiberlinge der technischen Dokumentationen können mit den Änderungen der Entwicklung kaum Schritt halten. Sicher ist jedoch, das wie man früher ein Schild an der Tür, ein Eintrag im Branchenbuch, eine Zeitungsanzeige und dann auch eine Webseite und evtl. App brauchte, nun auch den Kanal der Ditgitalen Sprachassistenten bedienen sollte. Eine Entwicklung die defitniv unumkehrbar ist und von den größten der Großen mit massiven Einsatz und Marktdruck angeschoben ist. Bis 2021 wird geschätzt das rund 2 Mrd. Menschen weltweit Sprachassistenten einsetzen. Also!? 😉

Onlinemeeting: Digitale Sprachassistenten und die Datenschutz-Grundverordnung / DSGVO am 11.04.18 um 14 Uhr

Die Datenschutz-Grundverordnung (=DSGVO) gespenstert grade durch das Internet und beschäftigt mit großen Augen und Ohren alle Unternehmen, Entwickler und vor allem Juristen die im Internet irgendwie tätig sind. Auch Digitale Sprachassistenten wie Amazon Alexa oder Google Assistant verarbeiten Daten, schliesslich ist der entstehende Aufwand und eine mögliche Abmahnungsgefahr nicht unerheblich. Der Aufklärungsbedarf ist also sehr hoch, da die DSGVO auch noch etliche Fragen offen lässt und an vielen Stellen unklar ist.

Entsprechend braucht es hier nochmal einen differenzierten Blick auf die Datenverarbeitung digitaler Sprachassistenten. Zu diesem Zweck wird es am 11.4.18 ab 14 Uhr eine Onlinekonferenz geben an dem jeder Interessierte teilnehmen kann.

Die Internetadresse zur Teilnahme wird einen Tag vor dem Termin per EMail an alle Teilnehmer versendet die sich im entsprechenden Newsletter auf dieser Seite eingetragen haben.

 Für möglichst wenig Störgeschräusche bitte mit Kopfhörern teilnehmen!

Ausschweifende Diskussionen dazu findet ihr auch in unserer Datenschutz-Grundverordnung (=DSGVO)

Digitale Sprachassistenten in der Unternehmenstrategie

Entweder noch sehr unbeachtet oder noch sehr unbeholfen, so stehen noch viele Unternehmen den Herausforderungen der digitalen Sprachassistenten gegenüber. In machen Fällen sogar auch noch dem Internet ansich. Verwunderlich ist das nicht, schliesslich ist das Internet, welche über digitale Sprachassistenten nun auch noch eine natürliche Kommunikationsschnittstelle erhält, derart komplex, das kein Mensch alleine es zu verstehen vermag.

So werden jegliche neuen, schnellen und vor allem kernkompetentzferne Entwicklungen, von den Unternehmen entweder gerne auf die lange Bank geschoben, oder ohne wirklich entwickelte Strategie und Ziel mal eben umgesetzt, in dem man z.B eine Agentur mit einer Idee mit einer Programmierung beauftragt.

Die Qualität der Ergebnisse und vor allem der Sinn und Zweck dieses Aufwands rufen dabei in der Regel erstmal Frust hevor und ernten dann oft Zurecht, wenig gute Wertungen beim Nutzer und damit auch beim Auftraggeber. Entsprechend steht dann die Frage nach dem Sinn möglicher  neuer Entwicklungen im Raum. Warum also nicht doch erstmal zurücklehnen und die Antwort auf die Frage finden, welchen Nutzen digitale Sprachassistenten für das Unternehmen wirklich haben!?

Die Ziele…

die ein Unternehmen sich setzt, bestimmen die Maßnahmen die ergriffen werden um sie zu erreichen. Warum also diesen Weg bei neuen Entwicklungen, wie es die digitalen Sprachenassistenten sind, nicht auch so aussteuern? Oder um es anders zu sagen, es ist ein MUSS die Nutzung von digitalen Sprachassistenten anhand von Zielen auszurichten, denn noch vor der eigentlich Programmierung von „Skills und Actions“ für digitale Sprachassistenten, steht das verstehen und entwicklen der entsprechenden Anwednungsfälle und der Sprache anhand der Ziele. Wird dies nicht gemacht, sind die Folgen entsprechend kaum zu nutzende Sprachanwendungen die dem Sinn eines Sprachassistenten eher wiedersprechen als es zu stützen. Der aktuelle Entwicklungsstand von Sprachanwendungen spricht dabei Bände.

Eine Entwicklung…

für Sprachassistenten im Unternehmensumfeld braucht eine gewisse Mechanik um wirklich Qualität und Nutzer zu erzeugen…

  1. Ziel: Welches Ziel soll mit dem Einsatz des Sprachassistenten erreicht werden? (=Strategie, Management, Marketing, Vertrieb)
  2. Anwendungsfälle: Welche Anwendungsfälle sind unter welchen Umständen nötig um die Ziele zu erreichen? Welches Wissen und welche Fähigkeiten braucht es? (=Prozessmanagement, Informatik)
  3. Dokumentation: Braucht es wirklich ein „Dialogmodell“ um die gesetzten Anwendungsfälle zu gestalten? Wenn ja, braucht es eine Entwicklung und Dokumentation des Dialogmodells als Grundlage für die Programmierung. (=Linguistik, Prozessmanagement, Informatik)
  4. Programmierung: Hat die ausführende Programmierung das know how Dialogmodelle umzusetzen? Besitzen die nötigen Schnittstellen die nötigen Funktionen? (=Programmierung). Aktuell gibt es nur eine handvoll Menschen die dieses know how haben. Bekannte Agenturen aus der Softwareentwicklung sind das nicht.

Es gibt aktuell keine etablierten Entwicklungsprozesse für digitale Sprachassistenten. Es werden dafür eher traditionelle Entwicklungsprozesse aus der Softwareentwicklung herangezogen, die jedoch den Eigenschaften von digitalen Sprachassistenten nur unvollständig Rechnung tragen. Das Hauptaugenmerk muss bei digitalen Sprachassistenten grundsätzlich auf der a.) „Assistenzfunktion“ die mit einer Sprachschnittstelle auf Basis b.) „natürlicher Sprache“ verknüpft ist liegen. Genau diese beiden Punkte werden jedoch aus Tradition eben nicht oder nur wenig miteinander in Verbindung gebracht oder entsprechend mitverwurstet.

Was es für Unternehmen braucht die digitale Sprachassistenten in ihre Strategie aufnehmen wollen, ist in erste Linie eine klare Zielsetzung. So wie jede andere Maßnahme auch einem Ziel unterliegt, muss auch der Sprachassistent einen Einsatzzweck erfüllen. Natürlich ist das finden dieser Ziele nicht so einfach, oder vielleicht doch? Grundsätzlich sind diese Ziele in der Regel nicht speziell auf Sprachassistenten ausgelegt, sondern eher übergeorndeter Natur. So könnte dies z.B der Erschliessung neuer Zielgruppen sein, das besetzen eines neues Marktsegments, die etablierung eines neues Produktes am Markt oder z.B auch die Verbesserung des Unternehmensimages.

VSMS – Das PHP-Framework für die Programmierung von digitalen Sprachassistenten

Das Internet of Voice – Voice Skill Management System (= VSMS) ist ein PHP-Framework, um effizient die Leistungsfähigkeit von digitalen Sprachassistenten zu erhöhen und deren Funktion auf Basis von Skills zu verbessern.

Das Internet of Voice – Voice Skill Management System (= VSMS) ist ein PHP-Framework, um effizient die Leistungsfähigkeit von digitalen Sprachassistenten zu erhöhen und deren Funktion auf Basis von Skills zu verbessern.

Das System ist nun in seiner ersten Version auf Github frei verfügbar und präsentiert somit einen weiteren großen Schritt der Entwicklung von digitalen Sprachassistenten und des Projekts Internet of Voice.

So wurde z. B. auch der Amazon Alexa Skill „BlutdruckDaten“ damit bereits umgesetzt!

Gerne nehmen wir Fragen, Kritik und Anregungen entgegen und entwickeln das Framework natürlich in jede sinnvolle Richtung weiter. Aktuell dient es noch ausschließlich der Gestaltung von Alexa Skills und soll in Zukunft auch weitere Systeme einschließen. Mailt uns: Internet of Voice

Viel Spaß und Erfolg damit…

Euer Team von Internet of Voice – Alexander, Sascha, Marius, Robert

Amazon Alexa Skill für blutdruckdaten.de

Sinnvolle Anwendungsfälle für digitale Sprachassistenten sind derzeit noch sehr rar. Doch nun hat die Welt des Amazon Echo und dessen Sprachassistenz-Service „Alexa“ einen Skill mehr, der besonders für betroffene Hyper- und Hypotoniker mehr als nützlich ist.

Sinnvolle Anwendungsfälle für digitale Sprachassistenten sind derzeit noch sehr rar. Doch nun hat die Welt des Amazon Echo und dessen Sprachassistenz-Service „Alexa“ einen Skill mehr, der besonders für betroffene Hyper- und Hypotoniker mehr als nützlich ist. Letztlich ist die Gesundheit das Wichtigste für den Menschen und so hat Internet of Voice den entsprechenden Skill zum Thema Blutdruck für das bekannte Internetportal „blutdruckdaten.de“ in den Amazon Skills Shop eingestellt.

Dieser Skill ist in der Lage, die vom Nutzer über die Internetseite oder App eingetragenen Werte abzurufen (Nutzerkonto bei blutdruckdaten.de wird benötigt) oder sich generell (auch ohne Nutzerkonto bei blutdruckdaten.de) über den Blutdruck zu informieren.

Dieser Skill wurde mit Hilfe des Internet of Voice PHP-Frameworks VSMS (Voice Skill Management System) erstellt, das aktuell in seiner ersten Version bei Github vorliegt und noch viele weitere Entwicklungen erfahren soll.