Online-Event: Smart Voice Panel – Marketing, am 27 Februar 2019

Die erste Folge unserer neuen Serie „Smart Voice Panel“ hat nicht nur allen Beteiligten Spaß gemacht, sondern anscheinend auch den Zuschauern. So erhalten wir jedenfalls sehr viel Zuspruch in unser Postfach.

So werden wir die Serie bis auf Weiteres, mit einer monatlichen Folge weiterführen und natürlich die Themen verfeinern und abwechseln. Dabei sind vor allem viele verschiedene Sichtweisen außerhalb unserer eigenen Filterblase wichtig. 

Um wirklich möglichst tiefe Einblicke zu erhalten, wird es kein Namedropping geben. Motivation und know how ist wichtiger, auch wenn das eine das andere ja nicht zwingend ausschliesst.

Grundsätzlich richtet sich die Serie an Unternehmen die in Sachen Smart Voice etwas bewegen/umsetzen möchten, aber natürlich auch an interessierte Nutzer der Systeme.

Die nächste Aufzeichnung zum Thema „Marketing“ findet am 27.2.19 ab 15 Uhr auf statt. Die Internetadresse zu der Aufzeichnung wird über unseren Newsletter bekanntgegeben.

Wir freuen uns in dieser Folge über die Teilnehmer:

  • Mirko Lange – Scompler GmbH
  • Daniel Mittendorf – mittendorf.net
  • Rainer Henze – laut.ag
  • Alexander Köhn – Nuuk GmbH
  • Robert C. Mendez – Internet of Voice (Moderation)

Interessierte können vor der Konferenz Fragen an die Redaktion senden, die dann eventuell in der Konferenz besprochen werden können. Bitte sendet eure Fragen an: expertentalk@internet-of-voice.de

Bis bald…

Online-Event: Smart Voice Expertenrunde am 23.1.2019

2018 is wech.. und war ein Jahr in dem viel passiert ist. Vor allem hat sich die entstehende Smart Voice Branche ein wenig professionalisiert und auch relativiert. Auch wenn digitale Sprachassistenten nachwievor ein in den Medien heiß gekochtes Thema sind, so hat sich doch gezeigt das weder Nutzer noch Unternehmen beim Thema Smart Voice wirklich angekommen sind und es noch viel zu tun gibt für die Macher der smarten Assistenten die Sprechen können.

Jedenfalls gibt es inzwischen in Deutschland Menschen und Unternehmen die sich dieser und vieler anderer Dinge in Sachen Smart Voice / Digitale Sprachassistenten bewusst sind und damit aktuell die einflussreichsten Macher im deutschsprachigen Raum sind. Einge davon finden sich nun zu einer Online-Konferenz zusammen und sprechen ein wenig über das was war und das was kommen muss. Lasst euch überraschen 🙂

Die Online-Konferenz findet am 23.1.19 ab 15 Uhr auf Skype statt und wird aufgezeichnet. Die Internetadresse zu der Aufzeichnung wird nach der Konferenz hier auf dieser Seite bekanntgegeben.

Interessierte können vor der Konferenz Fragen an die Experten senden, die dann eventuell in der Konferenz besprochen werden. Bitte sendet eure Fragen an: expertentalk@internet-of-voice.de

Bis bald…

VUI Entwicklung zum Sattelpunkt

Die Entwicklung einer auf der Stimme basierenden Nutzerschnittstelle (Voice User Interface (=VUI) Design), ist keine so einfache Sache wie es gerne kommuniziert wird. In erster Linie weil die Menschen die Sprache aus dem Bauch heraus nutzen und damit (leider allzu oft), ohne darüber nachzudenken.

Ein Linguist hat da einen besseren Blick auf das was die Menschen so tonal von sich geben. Doch auch ein Linguist hat deswegen nicht zwingend den ultimativen Durchblick in der Gestaltung von Sprachschnittstellen zur Maschine. Dazu braucht es noch mehr!

Ebenso sind wir nun seit Dekaden den Bildschirm gewohnt. Sich da auf das Design einer Darstellung und Navigation per Stimme umzustellen, ist ebenso keine einfache Sache und wird aktuell nur von einer Handvoll Menschen verstanden. So sind die aktuell verfügbaren Anwendungen für Sprachassistenten neben den Einschränkungen der Systeme selbst, auch oft durch eine unzureichende Gestaltung noch weiter in ihrer Anwendbarkeit für den Nutzer eingeschränkt. Dies passiert in erster Linie weil versucht wird den einfachstes Weg zu nehmen und die Inhalte des Mediums Bildschirm einfach in den Sprachassistenten gequetscht wird, oder weil der Anwendungsfall mit Gewalt auf „Voice only“ gepresst wird. Dabei heisst die nötige Sichtweise und Richtlinie zur Gestaltung von Sprachschnittstellen „Voice First“ und eben nicht „Voice only“.
So gilt es in einem zu gestaltenden Prozess oder Anwendungsfall vor allem primär herauszufinden wo der Sattelpunkt erreicht ist, an der eine Bedienung per Sprache nicht mehr effizient ist und eventuell z.B ein Medienbruch her muss um die Informationen wieder effizient und vor allem „natürlich/menschlich“ transportieren zu können.

Als gutes Beispiel lässt sich dafür z.B ein Spiel in Form eines Quiz nutzen. Insofern der Sprachassistent der Moderator und damit Fragensteller ist, ist alleine schon aus dem Zwang einer effizienten Dialoggestaltung heraus vorhanden, das es nicht mehr als maximal 3 mögliche Antworten auf die Frage zur Auswahl geben darf. Sollten mehr als 3 abgefragt werden, muss ein weiteres Medium her, wie z.B ein Bildschirm damit der Mensch die Komplexität gut erfassen kann.

Ein weiteres Kriterium wäre die Form der vom Nutzer zu machenden Antworten. Für den Menschen ist es wesentlich natürlicher die eigentlich Antwort zu geben, als eine damit verbundene Variable wie z.B „Antwort A“, „Antwort B“, „Antwort C“. Das heißt ein Mensch würde Frage (=Antwort A) „Wie heisst Frau Merkel mit Vornamen“, eher mit „Angela“ antworten, als mit „A“ oder „Antwort A“. Entsprechend sollte der Sprachassistent dem Nutzer die Möglichkeiten geben mit „beiden“ Antwortmöglichkeiten zu antworten. So das der Nutzer entweder mit „A“ oder eben mit „Angela“ antworten kann. Ebenso mit den entsprechenden Variantenantworten wie z.B „Antwort A mit Angela“ oder auch „Die Antwort ist A, Angela“ und so weiter.

Sprache ist äußerst sensibel, daher ist das Ohr auch extremst schnell gelangweilt wenn so ein Spiel/Quiz dann auch immer nach dem gleichen Muster abläuft. Ein reines Frage/Antwort Quiz, dürfte entsprechend keine große Anhängerschaft finden bzw. schnell langweilig werden. Daher sollte neben einer unterhaltsamen Sprache, auch eine ausreichend große Variation im Spielemuster vorhanden sein.

Derweil gibt es einige Quizspiele die rein über die Stimme funktionieren. Auch wenn diese Spiele schon gut im Rahmen der Voice First Devise gestaltet sind, so merkt man schnell dass sie dennoch extremst schnell langweilig werden. Da hilft es auch wenig wenn die Spieler gegeneinander antreten. Der Grund dafür liegt dann schlicht in der fehlenden Variation in der Kommunikation. Sprich, der Moderator (=Sprachassistent) bringt nicht ausreichend Variation in der Sprache mit.

Wie werde ich VUI Designer für digitale Sprachassistenten?

Die aktuelle Antwort dazu lautet: Wie immer du willst! Denn den VUI-Designer (VUI = Voice User Interface), gibt es als Ausbildungsberuf oder Titel „noch“ nicht. Dabei ist er aber für den aktuell schnell wachsenden Market der digitalen Sprachassistenten oder auch „virtueller Assistenzsysteme“ wie Amazon Alexa oder Google Assistant, bitter nötig.

„Medien für das Auge“ haben im Laufe ihrer Geschichte eine ganze Reihe an Berufen hervorgebracht. Ob es der „Drucker“ war der die Zeitung herstellt, oder bis heute der Screen Designer. Für hörbare Medien überließ man das Feld dann den Meistern der vielen Knöpfe im Tonstudio oder anderen kreativen Köpfen wie Linguisten, Sprechern, Sängern oder Journalisten.

Die Gestaltung des Mediums „Ton“ erfordert andere/weitere Kenntnisse als die des Mediums Bild. Die Gestaltung des Mediums „Sprache“, erfordert dann nochmals weitere Kenntnisse. Letztendlich auch weil die gesprochene Sprache das emotionalste und sensibelste Medium für den Menschen ist, so ist auch geschriebene Sprache nicht gesprochene Sprache, weil niemand schreibt wie er spricht oder umgekehrt.

Es braucht auch bei der Gestaltung der gesprochenen Sprache besondere Kenntnisse wie auch bei der Gestaltung einer möglichen Nutzerführung oder Nutzerschnittstelle per Sprache. Entsprechend wirkt sich dies alles schlussendlich dann auch auf die Nutzung von Anschlussmedien aus, wie z.B dem Bildschirm, oder auch auf die Form der Inhalte, so das zum Beispiel aus dem bisher Schlagworten basierten und identifizierenden Online Marketing, ein in natürlicher Sprache und auf Absichten basiertes Intent Marketing wird.

Smart Voice (natürliche gesprochene Sprache in der Mensch-Maschine Kommunikation), ist keine in sich geschlossene Blase, sondern ein Medium welches übergreifend über alle möglichen Systeme, Medien, Prozesse und/oder Inhalte funktioniert und diese verändert. Nicht mit einem Schlag wie viele Dampfplauderer es jetzt herbeireden, aber merklich immer mehr und in ein paar Jahren ist bei vielen Menschen Smart Voice fast unbemerkt in ihre Leben eingezogen, so wie es bisher jedes Medium getan hat.

Was gilt es also zu wissen/können um sich VUI-Designer nennen zu können/dürfen? Nun, wie zu Anfangs erwähnt, gibt es da keine feste Definition. Aber versuchen wir es trotzdem mal…


– Gestaltung von Bildschirmmedien

Warum das? Ganz einfach, weil „Smart Voice“ oder „Sprachassistenz“ nicht bei „nur Stimme aufhört“. Die meisten Anwendungsfälle sind sogar für „nur Stimme“ gar nicht vollumfänglich geeignet und brauchen entsprechende weiterführende Medien wie z.B einen Bildschirm. Daher gilt es den Bildschirm auf „Voice First“ hin zu gestalten und in den Anwendungsfällen den Sattelpunkt auszuloten wo „nur Stimme“ oder eben „Stimme und mehr“ herhalten muss. Daher ist das Wissen über Screen Design ein nötiges an dieser Stelle. Es sei denn das man wirklich nur Anwendungsfälle herstellt die zu 100% über nur Stimme abzufackeln sind. Was aber wohl doch eher selten der Fall sein wird.

– Gestaltung von Audiomedien

Logischerweise braucht ein Medium fürs Ohr auch das Wissen darüber wie man es gestaltet. Ob nun über Anweisungen wie SSML oder über die Manipulation in einem Editor für Audiodateien. Gesprochene Sprache muss stets gut klingen und dem Anwendungsfall, wie auch der Persönlichkeit des Nutzers oder des Anwendungsfalls entsprechen. Es wäre doch sehr merkwüdig wenn z.B eine Sprachassistent zum Motivieren eines Nutzers extrem langsam und langweilig klingen würde. Oder wenn eine Marke für Luxusartikel seinen Sprachassistenten mit Worten aus der Unterschicht auskleiden würde. Oft sind besonders bei der Stimme schon kleine Nuancen wichtig um die richtige Aussage zu treffen oder eben nicht zu treffen.

– Gestaltung von Sprache

Nicht nur grundlegend, sondern grundlegend grundlegend ist das Wissen über das Wesen der Sprache. Wer also z.B Linguist oder gar Computerlinguist ist, hat hier schon mal einen großen Vorteil. Eigentlich ist das Wissen über die Sprache der Ausgangspunkt für alles andere, denn ohne dies, braucht es den ganzen Rest nicht. Die Akzeptanz eines Mediums wie einem digitalen Sprachassistenten entscheidet sich stets an der Barrierefreiheit seiner Nutzungsmöglichkeit. Funktioniert die Benutzerschnittstelle nicht, funktioniert der ganze Rest auch nicht, egal wie toll alles „dahinter“ auch sein mag. Ergo: Ohne Wissen über Sprache, kein VUI-Design.

– Gestaltung von Nutzerführung

„Customer Journey“ und „User Experience“ gehören zum unbedingten Wortschatz eines jeden Bullshit Bingos im Medienbereich. Nicht nur weil es Spaß macht, sondern weil es in der Tat nicht unwichtig ist wie man den Nutzer leitet. Insofern die Sprache mit dem Nutzer funktioniert, muss die Nutzerführung dafür sorgen dass der Nutzer nun nicht wieder verloren geht. Anderseits gibt es Millionen von Beispielen bei denen die Nutzerführung eine echte Katastrophe ist, die Nutzer es aber dennoch „erlernt“ haben und am trotzdem Ball bleiben. So ist die Gestaltung der Nutzerführung also eine Gradwanderung zwischen „voll wichtig“ und „völliger Quark“. Ein versierter „UXler“ hat zwar ein besseres Auge für die Wünsche des Nutzers, kommt aber in der Regel vom Bildschirm und muss daher seine Grundlagen umstellen, was in der Regel mehr als schwer fällt. Ein Unternehmen welches sich also aufstellt um auch für Smart Voice zu entwickeln und dabei seine bereits vorhandene „UX“ Abteilung als Plusfunkt anführt, hat daran vorbeigeschossen. Es braucht viel mehr als das!

– Psychologie & Didaktik

Kein Medium ist so nah am Menschen, so emotional und so sensibel wie die gesprochene Sprache. Wer hier mit einem völlig unpersonalierten Phrasenhammer kommt, wird grandios scheitern. Der digitale Sprachassistent ist der „persönliche Assistent“ seines Nutzers und entsprechend muss eben genau diese Personalisierung die Grundlage für die Methodik und Gestaltung der Sprache zum Nutzer hin sein. Sensibilität ist oberstes Gebot um ins Ohr des Nutzers zu kommen und sein Vertrauen zu gewinnen. Dazu bedarf es Wissen rund um das menschliche Wesen und seiner Denk- und Sprechweise. Der Mensch denkt und spricht in „Absichten“ (Intents). Diese Absichten zu erfüllen und den Nutzer so stark wie nur möglich zu personalisieren muss stets das primäre Ziel des VUI-Designers sein. Psychologie und Didaktik sind untrennbar mit dem Wissen über die Gestaltung von Sprache und auch die Gestaltung von Personas und Charaktären verbunden und daher genauso grundlegend grundlegend!

– Informatik & Prozessgestaltung

Um das gedachte für alle Menschen verständlich zu machen, braucht es eine „Formalisierung“. Jeder VUI-Designer der seine noch so genialen Einfälle nicht kommunizieren kann (Was ein Wiederspruch in sich ist!), dürfte am Ende in der Umsetzung seiner Gedanken ein großes Problem haben. Daher ist die Informatik die Wissenschaft die es braucht um die VUI-Ideen auf den kleinsten gemeinsamen Nenner zwischen Menschen und Menschen und zwischen Menschen und Maschinen zu bringen. Wer im Informatik Unterricht aufgepasst hat, dem werden spätestens jetzt „Graphen & Diagramme“ wieder schmerzvoll in den Kopf kommen.

Letztendlich bildet die Informatik dann auch die Brücke hin zur Programmierung. Um dies zu gestalten braucht es Verfahren die so flexibel wie nur möglich sind, so wie die Sprache es ja auch ist. Die erste Wahl dazu dürften „Design Patterns“ sein, da nur sie die in entsprechend vielen Varianten die Anwendungsfälle abbilden können. Einfach nur mit den beliebten Ablaufdiagrammen oder gar Bäumen zu hantieren, wäre viel zu kurz gedacht. Daher sind auch die momentan viel entwickelten graphischen Nutzeroberflächen für die Entwicklung von Alexa-Skills nur ein kleiner Teil des Kuchens die auch nur einfach Anwendungsfälle mit weniger Intelligenz abdecken können und werden. Viel Teig macht halt noch immer keinen guten Kuchen.


Was noch? Nun, das wird sich im Laufe der Zeit zeigen. Noch ist die Branche jung und es braucht noch viele Ideen, Entwicklungen, Standards und Mut damit man Smart Voice und damit auch den VUI-Designer überhaupt beschreiben kann. So wie der Screen-Designer seinen Weg als Berufsbild gefunden hat, so wird auch der Smart Voice/VUI-Designer seinen Weg finden, das ist sicher.

Und was ist jetzt mit „Programmierung“? Was soll damit sein? Ein Architekt baut seine Häuser schließlich ja auch nicht selbst. Wer meint ein guter VUI-Designer zu sein, wird kein guter Programmierer sein und umgekehrt. Die Welt der Medien und auch des Smart Voice Segments ist viel zu komplex als dann ein Mensch alleine dieses Wissen innehaben könnte. Es braucht viele Köpfe um Kompetent in allem zu sein. Letztendlich schadet es nicht auch Programmieren zu können um die Grenzen der Systeme und die Realisierbarkeit der Ideen besser abschätzen zu können. Wer jedoch bei der Projektentwicklung eines Smart Voice Projekt den Programmierer nicht eh von vorneherein mit an Bord hat, ist selbst schuld.

Auch wenn die Programmierung das kleinste Todo am Ende der Prozesskette ist, so sollte sie zwingend einen Platz in der Projektentwicklung haben um beratend einzugreifen. Ein Programmierer sollte jedoch, niemals der Kopf eines Smart Voice Projekts sein, ebenso wenig wie ein Marketer, ein Grafiker oder ein BWLer *Zwinckersmile*.
In diesem Sinne, auf auf und werde VUI-Designer. Es wird dein Schaden nicht sein! Hast du noch Ideen um das Berufsbild des VUI-Designers zu deifnieren? Schreib uns: info@internet-of-voice.de

Digitale Sprachassistenten für Unternehmen – Das Webinar SVC2018

Die Smart Voice Conference für Unternehmen und Marken, die Digitale Sprachassistenten kennenlernen wollen, wirft ihr Schatten vorraus. Mit einer Webinarserie möchte der Veranstalter; InternetOfVoice aus Köln, den Unternehmen erste Fragen beantworten und auch aufwerfen um mit einem gruten Rüstzeug die Voice Konferenz ausführen zu können und den Unternehmen und Marken soviel Information mit in die Projekte geben zu können wie möglich.

Alle Teilnehmer des Webinars haben außerdem die Möglichkeit über einen Code die Tickets zur Konferenz als günstiges Early Bird Ticket zu erhalten. Also, los gehts! Anmeldung zum Webinar hier: https://www.meetup.com/de-DE/Smartistenten/events/253314755/

Anmeldung zur Smart Voice Conference, hier: https://smart-voice-conference-2018.eventbrite.de/

Digitale User Experience UX – Der aktuelle Stand ist veraltet

Viele, viele, viele, viele Jahre Arbeit, Investitionen, Hirnzellen, Tränen und Tests sind in die Designs aller nur erdenklich Nutzerschnittstellen zur Maschine geflossen. Quasi keine davon basiert dabei auf Natürlichkeit bzw. Menschlichkeit. Nun findet in der Evolution der digitalen Medien, ein Fortschritt in Form eines Rückschrittes statt. Aus unnatürlichen und angelernten Ein- Ausgabemedien wie Tastaur, Maus oder Touchscreen, wird über Sprachassistenten nun eine natürliche, fast berrierefreie Schnittstelle: Die Stimme!

Dies hat zur Folge das all über die Jahre für den Bildschirm entwickelten Designs und Designstrategien nun nicht mehr greifen bzw. das sie versagen und neu/anders entwickelt werden müssen. Ein Umstand den natürlich eine ganze Branche nur sehr ungerne hört. Es ist jedoch der nächste logische Schritt den große führende Digitalkonzerne unumkehrbar antreiben. Ebenso ist es aber auch das nächste große Ding, nachdem besonders die Digitalbranche, mit täglichem Bullshitbingo mit Hochdruck sucht.

Barrierefreiheit

Die auffälligste Änderung in der User Experience, vom Bildschirm zur Sprache, in der maschinellen Kommunikation, ist natürlich die quasi barrierefreie Nutzung. Die Sprache ist bei den aktuell existenten Maschinenschnittstellen, die wohl natürlichste und damit für den Nutzer auch attraktivste. Was wohl auch, neben anderen Gründen, die aktuell hohe Nachfrage an entsprechenden Produkten wie Amazon Alexa und Google Home mehr als erklärt.

Der persönliche Assistent

In erste Linie sind digitale Sprachassistenten… „Assistenten“. Die Aufgabe eines Assistenten ist es, seinen Nutzer möglichst gut zu kennen und ihm so viele Aufgaben wie möglich abzunehmen. Je nach Anwendungsfall, sogar vom Nutzer völlig unbemerkt. Dies umfasst auch die Tatsache, das der Assistent dem Nutzer Entscheidungen abnimmt bzw. dem Nutzer garnicht mehr die Wahl lässt. Nicht nur weil man komplexe Inhalte überhauptnicht effizient per Sprache an den Nutzer kommunizieren kann (Punkt der Erfüllung), sondern weil der Assistent so „smart“ ist, das er dem Nutzer die Wahl anhand der personalisierten Daten schlicht einfach abnimmt. Der Umkehrschluss ist, der Nutzer kriegt keine „Auswahl“ mehr zu Gesicht, je nach Anwendungsfall sogar nicht mal mehr das Ergebnis ansich.

Suchmaschinen und SEO

Wenn der Assistent dem Nutzer keine Wahl mehr lässt, oder die Sprachschnisttstelle eh nur noch ein Ergebnis an den Nutzer ausgibt, braucht es auch keine Auswahlliste bzw. keine Seite 1 in den Suchmaschinen und auch ein Platz 1 auf Seite 1 der Suchmaschine. Die letzten Änderungen die Google  ausgeführt hat, führt genau diese Gedanken aus.

Siehe…

Die größte Masse der Amazon Alexa Skills oder Google Assistent Actions „nutzen keine Suchmaschine“. Also!? 😉 Wird Zeit sich mit dem Thema zu befassen, oder? Erste Aproximationen schätzen eine bildschirmlose Nutzung von „Voice Search“ bis 2020 zwischen 30 und 50% ein. Alle anderen Anwendungsfälle (welche mehr als die Suche sind), noch garnicht mit eingerechnet.

Digitale Sprachassistenten in der Unternehmenstrategie

Entweder noch sehr unbeachtet oder noch sehr unbeholfen, so stehen noch viele Unternehmen den Herausforderungen der digitalen Sprachassistenten gegenüber. In machen Fällen sogar auch noch dem Internet ansich. Verwunderlich ist das nicht, schliesslich ist das Internet, welche über digitale Sprachassistenten nun auch noch eine natürliche Kommunikationsschnittstelle erhält, derart komplex, das kein Mensch alleine es zu verstehen vermag.

So werden jegliche neuen, schnellen und vor allem kernkompetentzferne Entwicklungen, von den Unternehmen entweder gerne auf die lange Bank geschoben, oder ohne wirklich entwickelte Strategie und Ziel mal eben umgesetzt, in dem man z.B eine Agentur mit einer Idee mit einer Programmierung beauftragt.

Die Qualität der Ergebnisse und vor allem der Sinn und Zweck dieses Aufwands rufen dabei in der Regel erstmal Frust hevor und ernten dann oft Zurecht, wenig gute Wertungen beim Nutzer und damit auch beim Auftraggeber. Entsprechend steht dann die Frage nach dem Sinn möglicher  neuer Entwicklungen im Raum. Warum also nicht doch erstmal zurücklehnen und die Antwort auf die Frage finden, welchen Nutzen digitale Sprachassistenten für das Unternehmen wirklich haben!?

Die Ziele…

die ein Unternehmen sich setzt, bestimmen die Maßnahmen die ergriffen werden um sie zu erreichen. Warum also diesen Weg bei neuen Entwicklungen, wie es die digitalen Sprachenassistenten sind, nicht auch so aussteuern? Oder um es anders zu sagen, es ist ein MUSS die Nutzung von digitalen Sprachassistenten anhand von Zielen auszurichten, denn noch vor der eigentlich Programmierung von „Skills und Actions“ für digitale Sprachassistenten, steht das verstehen und entwicklen der entsprechenden Anwednungsfälle und der Sprache anhand der Ziele. Wird dies nicht gemacht, sind die Folgen entsprechend kaum zu nutzende Sprachanwendungen die dem Sinn eines Sprachassistenten eher wiedersprechen als es zu stützen. Der aktuelle Entwicklungsstand von Sprachanwendungen spricht dabei Bände.

Eine Entwicklung…

für Sprachassistenten im Unternehmensumfeld braucht eine gewisse Mechanik um wirklich Qualität und Nutzer zu erzeugen…

  1. Ziel: Welches Ziel soll mit dem Einsatz des Sprachassistenten erreicht werden? (=Strategie, Management, Marketing, Vertrieb)
  2. Anwendungsfälle: Welche Anwendungsfälle sind unter welchen Umständen nötig um die Ziele zu erreichen? Welches Wissen und welche Fähigkeiten braucht es? (=Prozessmanagement, Informatik)
  3. Dokumentation: Braucht es wirklich ein „Dialogmodell“ um die gesetzten Anwendungsfälle zu gestalten? Wenn ja, braucht es eine Entwicklung und Dokumentation des Dialogmodells als Grundlage für die Programmierung. (=Linguistik, Prozessmanagement, Informatik)
  4. Programmierung: Hat die ausführende Programmierung das know how Dialogmodelle umzusetzen? Besitzen die nötigen Schnittstellen die nötigen Funktionen? (=Programmierung). Aktuell gibt es nur eine handvoll Menschen die dieses know how haben. Bekannte Agenturen aus der Softwareentwicklung sind das nicht.

Es gibt aktuell keine etablierten Entwicklungsprozesse für digitale Sprachassistenten. Es werden dafür eher traditionelle Entwicklungsprozesse aus der Softwareentwicklung herangezogen, die jedoch den Eigenschaften von digitalen Sprachassistenten nur unvollständig Rechnung tragen. Das Hauptaugenmerk muss bei digitalen Sprachassistenten grundsätzlich auf der a.) „Assistenzfunktion“ die mit einer Sprachschnittstelle auf Basis b.) „natürlicher Sprache“ verknüpft ist liegen. Genau diese beiden Punkte werden jedoch aus Tradition eben nicht oder nur wenig miteinander in Verbindung gebracht oder entsprechend mitverwurstet.

Was es für Unternehmen braucht die digitale Sprachassistenten in ihre Strategie aufnehmen wollen, ist in erste Linie eine klare Zielsetzung. So wie jede andere Maßnahme auch einem Ziel unterliegt, muss auch der Sprachassistent einen Einsatzzweck erfüllen. Natürlich ist das finden dieser Ziele nicht so einfach, oder vielleicht doch? Grundsätzlich sind diese Ziele in der Regel nicht speziell auf Sprachassistenten ausgelegt, sondern eher übergeorndeter Natur. So könnte dies z.B der Erschliessung neuer Zielgruppen sein, das besetzen eines neues Marktsegments, die etablierung eines neues Produktes am Markt oder z.B auch die Verbesserung des Unternehmensimages.

Internet of Voice auf der bedeutendsten Content-Marketing-Konferenz

Die Content Marketing Conference (= CMCX) und Internet World Expo finden vom 6.3. bis 7.3.2018 auch dieses Jahr in München statt. Diesmal jedoch auch mit UNS, dem „Internet of Voice“, auf der Bühne.

Die wohl bedeutendste Konferenz im deutschsprachigen Raum, die Content Marketing Conference (= CMCX) und Internet World Expo, findet vom 6.3. bis 7.3.2018 auch dieses Jahr wieder in München statt. Diesmal jedoch auch mit UNS, dem „Internet of Voice“, auf der Bühne.

Wir wurden vom Gremium des Veranstalters, der Contilla GmbH aus Köln, im Rahmen eines Publikumsentscheids zu diesem Speaker Slot eingeladen und konnten uns damit gegen eine starke Konkurrenz durchsetzen, was beweist, dass digitale Sprachassistenten für alle Bereiche der Digitalbranche hochinteressant sind und die Nachfrage nach Informationen groß ist.

Dass dieses Event keine Kleinigkeit ist, sondern ein echtes Schwergewicht unter den Marketing-Konferenzen, zeigen die vielen hochkarätigen Speaker und Marken (Audi, Bahlsen, Henkel, Cewe, Saturn, Bosch etc.), die anwesend sind und sich mit uns die Bühne teilen werden.

Entsprechend werden unsere Experten Robert C. Mendez und Sascha Zöller die Bühne rocken und digitale Sprachassistenten tiefer in die Welt des Online-Marketings tragen.

Wir freuen uns tierisch und bedanken uns bei den zahlreichen Unterstützern sowie natürlich bei der Contilla GmbH für das in unser Projekt gesetzte Vertrauen.

Natürlich wird es eine Nachbereitung geben. Zu lesen hier auf diesem Kanal. 😉

VSMS – Das PHP-Framework für die Programmierung von digitalen Sprachassistenten

Das Internet of Voice – Voice Skill Management System (= VSMS) ist ein PHP-Framework, um effizient die Leistungsfähigkeit von digitalen Sprachassistenten zu erhöhen und deren Funktion auf Basis von Skills zu verbessern.

Das Internet of Voice – Voice Skill Management System (= VSMS) ist ein PHP-Framework, um effizient die Leistungsfähigkeit von digitalen Sprachassistenten zu erhöhen und deren Funktion auf Basis von Skills zu verbessern.

Das System ist nun in seiner ersten Version auf Github frei verfügbar und präsentiert somit einen weiteren großen Schritt der Entwicklung von digitalen Sprachassistenten und des Projekts Internet of Voice.

So wurde z. B. auch der Amazon Alexa Skill „BlutdruckDaten“ damit bereits umgesetzt!

Gerne nehmen wir Fragen, Kritik und Anregungen entgegen und entwickeln das Framework natürlich in jede sinnvolle Richtung weiter. Aktuell dient es noch ausschließlich der Gestaltung von Alexa Skills und soll in Zukunft auch weitere Systeme einschließen. Mailt uns: Internet of Voice

Viel Spaß und Erfolg damit…

Euer Team von Internet of Voice – Alexander, Sascha, Marius, Robert

Amazon Alexa Skill für blutdruckdaten.de

Sinnvolle Anwendungsfälle für digitale Sprachassistenten sind derzeit noch sehr rar. Doch nun hat die Welt des Amazon Echo und dessen Sprachassistenz-Service „Alexa“ einen Skill mehr, der besonders für betroffene Hyper- und Hypotoniker mehr als nützlich ist.

Sinnvolle Anwendungsfälle für digitale Sprachassistenten sind derzeit noch sehr rar. Doch nun hat die Welt des Amazon Echo und dessen Sprachassistenz-Service „Alexa“ einen Skill mehr, der besonders für betroffene Hyper- und Hypotoniker mehr als nützlich ist. Letztlich ist die Gesundheit das Wichtigste für den Menschen und so hat Internet of Voice den entsprechenden Skill zum Thema Blutdruck für das bekannte Internetportal „blutdruckdaten.de“ in den Amazon Skills Shop eingestellt.

Dieser Skill ist in der Lage, die vom Nutzer über die Internetseite oder App eingetragenen Werte abzurufen (Nutzerkonto bei blutdruckdaten.de wird benötigt) oder sich generell (auch ohne Nutzerkonto bei blutdruckdaten.de) über den Blutdruck zu informieren.

Dieser Skill wurde mit Hilfe des Internet of Voice PHP-Frameworks VSMS (Voice Skill Management System) erstellt, das aktuell in seiner ersten Version bei Github vorliegt und noch viele weitere Entwicklungen erfahren soll.