VUI Design on the wrong foot

„We need a voice application to be on Voice Assistants!“… Sooner or later it will sound in every company.

So some agencies have heard this call and pick up the appropriate budget. For applications that do not require great linguistic intelligence (e.g. questions & answers, quizzes, controls), this works quite well. However, if the application needs only a minimal amount more intelligence, the next poorly rated voice app already ends unused up in the store.

Even with the best developers in the world, it is currently not possible to produce a reasonably intelligent voice app, because the systems simply do not yet have this intelligence. In addition, the developers and designers themselves, who have not yet grasped and learnt the essence of spoken language themselves, find that traditional approaches are reflected in the production of voice apps, but in some places this is fundamentally wrong.

The fact that spoken language is different can be seen at many points. Some of them…


// The ear is the most emotional organ of perception we have. This cannot be said of the eye. How can it be? As fast as man can see, he cannot experience emotions. So if you try to land „formally“ in the user’s ear, you will not stay in the same.

// Likewise, the ear works more serially and slowly, whereas the eye can perceive information much faster almost parallel.

// Then the spoken language is also extremely situation-dependent. What and how people speak always depends on the current situation in which they find themselves.

// As if that were not enough, language is also very ambiguous and personal.


And yes, exactly these extremely important things are rarely or not at all considered in the current development of speech applications. The result is usually correspondingly bad, the budgets are burned and the customer and users frustrated.

That doesnt have to be that way, because it is sufficient to take a step back and to create an ideal-typical user (=Persona) for the planned voice application, because language depends extremely on the situation of the user.

This persona is described by the following attributes…

1.) Characteristics of the user. e.g..

  • Man/Woman?
  • Adult/Teen/Cind/Senior?
  • Age?
  • Interests?
  • Residence?
  • Language

2.) Time of the touchpoint

  • Time of day/time?
  • Good/bad mood?
  • Stress/Bored/Sleeping?

3.) Location of the touchpoint

  • At work
  • At sport
  • At cooking

Once you’ve fished out the persona, you also need a goal to manifest the use/sense/purpose of the voice app you’re going to design and to create this use with the functions of the speech assistant.

There’s a difference between „entertaining the user“ or „selling him the latest sneaker“. So, what is the goal?

If the goal and persona are known, the benefit/sense/purpose of the speech application has to be established. This happens naturally over the possibilities which the system of the language assistant gives, thus its functions which must be converted then in the Skills (Alexa) and Actions (Google) by the programmer.

If thus the system of the language assistant gives it e.g. that the language assistant e.g. sends an email, a lamp switches, a speech output makes etc. Of course, the design of the language must always be sensitive and it must be oriented so emotionally and above all to the user’s intention.

„The customer does not want a drill, he wants the hole in the wall!“ (Henry Ford)

Ultimately, the goal and the persona determine the design of the functions (skills/actions) of a speech application and thus also the benefit for the user as well as the provider!

VUI Design auf falschem Fuß!

„Wir brauchen eine Sprachanwendung um auf digitalen Sprachassistenten zu sein!“… tönt es früher oder später in jedem Unternehmen.

So einige Agenturen haben diesen Ruf gehört und holen sich das entsprechende Budget ab. Bei Anwendungen die keine große sprachliche Intelligenz erfordern (z.B Fragen & Antworten, Quiz, Steuerung), funktioniert das eigentlich auch schon ganz gut. Braucht die Anwendung jedoch auch nur minimal mehr an Intelligenz, schon landet die nächste schlecht bewertete Voice-App im Store.

Auch mit den besten Entwicklern der Welt lässt sich aktuell keine einigermaßen intelligente Voice App herstellen, weil die Systeme diese Intelligenz einfach noch nicht haben. Hinzu kommt, das die Entwickler und Design selbst, die gesprochene Sprache in ihrem Wesen selbst noch garnicht erfasst und erlernt haben, so das traditionelle Herangehensweisen in der Produktion von Voice Apps ihren Niederschlag finden, was jedoch an einigen Stellen grundverkehrt ist.

Das gesprochene Sprache anders ist, lässt sich an vielen Punkten festmachen. Einge davon…


// Das Ohr ist das emotionalste Wahrnehmungsorgan das wir haben. Das kann man vom Auge nicht behaupten. Wie auch? So schnell wie der Mensch gucken kann, kann er nicht Emotionen erfahren. Wer also versucht „formal“ im Ohr des Nutzers zu landen, wird nicht im selben bleiben.

// Ebenso funktioniert das Ohr eher seriell und langsam, wogegen das Auge fast parallel wesentlich schneller Informationen wahrnehmen kann.

// Dann ist die gesprochene Sprache auch noch extrem Situationsabhängig. Das was und wie der Mensch spricht, hängt stets von der aktuellen Situation ab in der er sich befindet.

// Als wäre das alle nicht genug, ist Sprache auch noch sehr mehrdeutig und persönlich.


Und ja, genau diese extremst wichtigen Dinge werden in der aktuellen Entwicklung von Sprachanwendungen selten oder garnicht berücksichtig. Das Ergebnis ist in der Regel entsprechend schlecht, die Budgets verbrannt und der Kunde und Nutzer frustiriert.

Dabei muss das eigentlich garnicht sein, denn es reicht schon bei der Konzeption mal einen Schritt zurück zu tun und eben nicht wie bei einer Webseite oder App einfach nur „einen Kanal mit Content füllen“, sondern die geplante Sprachanwendung an einem „idealtypischen Nutzer“ (=Persona) festzumachen, weil Sprache nunmal extremst von der Situation abhängt.

Diese Persona wird durch folgende Attribute beschrieben…

1.) Eigenschaften des Nutzers. z.B…

  • Mann/Frau?
  • Erwachsener/Teen/Kind/Senior?
  • Alter?
  • Interessen?
  • Wohnort?
  • Sprache

2.) Zeitpunkt des Touchpoints

  • Tageszeit/Uhrzeit?
  • Gut/Schlecht gelaunt?
  • Gestresst/Gelangweilt/Schlafend?

3.) Ort des Touchpoints

  • Bei der Arbeit
  • Beim Sport
  • Beim Kochen

Hat man die Persona erstmal rausgefischt, braucht es natürlich auch noch ein Ziel, anhand sich der Nutzen/Sinn/Zweck der zu konzipierenden Voice App manifestiert und über Funktionen des Sprachassistenten hergestellt wird.

Es ist ein Unterschied ob man „den Nutzer unterhalten will“, oder ihm z.B „den neusten Sneaker verkaufen möchte“. Also, was ist das Ziel?

Sind Ziel und Persona letztendlich bekannt, muss der Nutzen/Sinn/Zweck der Sprachanwendung hergestellt werden. Dies passiert natürlich über die Möglichkeiten die das System des Sprachassistenten hergibt, also seinen Funktionen welche dann in den Skills (Alexa) und Actions (Google) vom Programmierer umgesetzt werden müssen.

Wenn also das System des Sprachassistenten es z.B hergibt das der Sprachassistenten z.B eine EMail versendet, eine Lampe schaltet, eine Sprachausgabe macht etc. dann sind es genau diese Funktionen die entsprechend dem Ziel und der Persona gestaltet werden müssen.

Natürlich muss dabei stets sensibel auf das Design der Sprache geachtet sein und diese so emotional und vor allem an der Absicht des Nutzers orientiert sein!

„Der Kunde will keine Bohrmaschine, er will das Loch in der Wand!“ (Henry Ford)

Letztendlich bedingt das Ziel und die Persona die Gestaltung der Funktionen (Skills/Actions) einer Sprachanwendung und damit auch den Nutzen für den Anwender wie den Anbieter!

Wie werde ich VUI Designer für digitale Sprachassistenten?

Die aktuelle Antwort dazu lautet: Wie immer du willst! Denn den VUI-Designer (VUI = Voice User Interface), gibt es als Ausbildungsberuf oder Titel „noch“ nicht. Dabei ist er aber für den aktuell schnell wachsenden Market der digitalen Sprachassistenten oder auch „virtueller Assistenzsysteme“ wie Amazon Alexa oder Google Assistant, bitter nötig.

„Medien für das Auge“ haben im Laufe ihrer Geschichte eine ganze Reihe an Berufen hervorgebracht. Ob es der „Drucker“ war der die Zeitung herstellt, oder bis heute der Screen Designer. Für hörbare Medien überließ man das Feld dann den Meistern der vielen Knöpfe im Tonstudio oder anderen kreativen Köpfen wie Linguisten, Sprechern, Sängern oder Journalisten.

Die Gestaltung des Mediums „Ton“ erfordert andere/weitere Kenntnisse als die des Mediums Bild. Die Gestaltung des Mediums „Sprache“, erfordert dann nochmals weitere Kenntnisse. Letztendlich auch weil die gesprochene Sprache das emotionalste und sensibelste Medium für den Menschen ist, so ist auch geschriebene Sprache nicht gesprochene Sprache, weil niemand schreibt wie er spricht oder umgekehrt.

Es braucht auch bei der Gestaltung der gesprochenen Sprache besondere Kenntnisse wie auch bei der Gestaltung einer möglichen Nutzerführung oder Nutzerschnittstelle per Sprache. Entsprechend wirkt sich dies alles schlussendlich dann auch auf die Nutzung von Anschlussmedien aus, wie z.B dem Bildschirm, oder auch auf die Form der Inhalte, so das zum Beispiel aus dem bisher Schlagworten basierten und identifizierenden Online Marketing, ein in natürlicher Sprache und auf Absichten basiertes Intent Marketing wird.

Smart Voice (natürliche gesprochene Sprache in der Mensch-Maschine Kommunikation), ist keine in sich geschlossene Blase, sondern ein Medium welches übergreifend über alle möglichen Systeme, Medien, Prozesse und/oder Inhalte funktioniert und diese verändert. Nicht mit einem Schlag wie viele Dampfplauderer es jetzt herbeireden, aber merklich immer mehr und in ein paar Jahren ist bei vielen Menschen Smart Voice fast unbemerkt in ihre Leben eingezogen, so wie es bisher jedes Medium getan hat.

Was gilt es also zu wissen/können um sich VUI-Designer nennen zu können/dürfen? Nun, wie zu Anfangs erwähnt, gibt es da keine feste Definition. Aber versuchen wir es trotzdem mal…


– Gestaltung von Bildschirmmedien

Warum das? Ganz einfach, weil „Smart Voice“ oder „Sprachassistenz“ nicht bei „nur Stimme aufhört“. Die meisten Anwendungsfälle sind sogar für „nur Stimme“ gar nicht vollumfänglich geeignet und brauchen entsprechende weiterführende Medien wie z.B einen Bildschirm. Daher gilt es den Bildschirm auf „Voice First“ hin zu gestalten und in den Anwendungsfällen den Sattelpunkt auszuloten wo „nur Stimme“ oder eben „Stimme und mehr“ herhalten muss. Daher ist das Wissen über Screen Design ein nötiges an dieser Stelle. Es sei denn das man wirklich nur Anwendungsfälle herstellt die zu 100% über nur Stimme abzufackeln sind. Was aber wohl doch eher selten der Fall sein wird.

– Gestaltung von Audiomedien

Logischerweise braucht ein Medium fürs Ohr auch das Wissen darüber wie man es gestaltet. Ob nun über Anweisungen wie SSML oder über die Manipulation in einem Editor für Audiodateien. Gesprochene Sprache muss stets gut klingen und dem Anwendungsfall, wie auch der Persönlichkeit des Nutzers oder des Anwendungsfalls entsprechen. Es wäre doch sehr merkwüdig wenn z.B eine Sprachassistent zum Motivieren eines Nutzers extrem langsam und langweilig klingen würde. Oder wenn eine Marke für Luxusartikel seinen Sprachassistenten mit Worten aus der Unterschicht auskleiden würde. Oft sind besonders bei der Stimme schon kleine Nuancen wichtig um die richtige Aussage zu treffen oder eben nicht zu treffen.

– Gestaltung von Sprache

Nicht nur grundlegend, sondern grundlegend grundlegend ist das Wissen über das Wesen der Sprache. Wer also z.B Linguist oder gar Computerlinguist ist, hat hier schon mal einen großen Vorteil. Eigentlich ist das Wissen über die Sprache der Ausgangspunkt für alles andere, denn ohne dies, braucht es den ganzen Rest nicht. Die Akzeptanz eines Mediums wie einem digitalen Sprachassistenten entscheidet sich stets an der Barrierefreiheit seiner Nutzungsmöglichkeit. Funktioniert die Benutzerschnittstelle nicht, funktioniert der ganze Rest auch nicht, egal wie toll alles „dahinter“ auch sein mag. Ergo: Ohne Wissen über Sprache, kein VUI-Design.

– Gestaltung von Nutzerführung

„Customer Journey“ und „User Experience“ gehören zum unbedingten Wortschatz eines jeden Bullshit Bingos im Medienbereich. Nicht nur weil es Spaß macht, sondern weil es in der Tat nicht unwichtig ist wie man den Nutzer leitet. Insofern die Sprache mit dem Nutzer funktioniert, muss die Nutzerführung dafür sorgen dass der Nutzer nun nicht wieder verloren geht. Anderseits gibt es Millionen von Beispielen bei denen die Nutzerführung eine echte Katastrophe ist, die Nutzer es aber dennoch „erlernt“ haben und am trotzdem Ball bleiben. So ist die Gestaltung der Nutzerführung also eine Gradwanderung zwischen „voll wichtig“ und „völliger Quark“. Ein versierter „UXler“ hat zwar ein besseres Auge für die Wünsche des Nutzers, kommt aber in der Regel vom Bildschirm und muss daher seine Grundlagen umstellen, was in der Regel mehr als schwer fällt. Ein Unternehmen welches sich also aufstellt um auch für Smart Voice zu entwickeln und dabei seine bereits vorhandene „UX“ Abteilung als Plusfunkt anführt, hat daran vorbeigeschossen. Es braucht viel mehr als das!

– Psychologie & Didaktik

Kein Medium ist so nah am Menschen, so emotional und so sensibel wie die gesprochene Sprache. Wer hier mit einem völlig unpersonalierten Phrasenhammer kommt, wird grandios scheitern. Der digitale Sprachassistent ist der „persönliche Assistent“ seines Nutzers und entsprechend muss eben genau diese Personalisierung die Grundlage für die Methodik und Gestaltung der Sprache zum Nutzer hin sein. Sensibilität ist oberstes Gebot um ins Ohr des Nutzers zu kommen und sein Vertrauen zu gewinnen. Dazu bedarf es Wissen rund um das menschliche Wesen und seiner Denk- und Sprechweise. Der Mensch denkt und spricht in „Absichten“ (Intents). Diese Absichten zu erfüllen und den Nutzer so stark wie nur möglich zu personalisieren muss stets das primäre Ziel des VUI-Designers sein. Psychologie und Didaktik sind untrennbar mit dem Wissen über die Gestaltung von Sprache und auch die Gestaltung von Personas und Charaktären verbunden und daher genauso grundlegend grundlegend!

– Informatik & Prozessgestaltung

Um das gedachte für alle Menschen verständlich zu machen, braucht es eine „Formalisierung“. Jeder VUI-Designer der seine noch so genialen Einfälle nicht kommunizieren kann (Was ein Wiederspruch in sich ist!), dürfte am Ende in der Umsetzung seiner Gedanken ein großes Problem haben. Daher ist die Informatik die Wissenschaft die es braucht um die VUI-Ideen auf den kleinsten gemeinsamen Nenner zwischen Menschen und Menschen und zwischen Menschen und Maschinen zu bringen. Wer im Informatik Unterricht aufgepasst hat, dem werden spätestens jetzt „Graphen & Diagramme“ wieder schmerzvoll in den Kopf kommen.

Letztendlich bildet die Informatik dann auch die Brücke hin zur Programmierung. Um dies zu gestalten braucht es Verfahren die so flexibel wie nur möglich sind, so wie die Sprache es ja auch ist. Die erste Wahl dazu dürften „Design Patterns“ sein, da nur sie die in entsprechend vielen Varianten die Anwendungsfälle abbilden können. Einfach nur mit den beliebten Ablaufdiagrammen oder gar Bäumen zu hantieren, wäre viel zu kurz gedacht. Daher sind auch die momentan viel entwickelten graphischen Nutzeroberflächen für die Entwicklung von Alexa-Skills nur ein kleiner Teil des Kuchens die auch nur einfach Anwendungsfälle mit weniger Intelligenz abdecken können und werden. Viel Teig macht halt noch immer keinen guten Kuchen.


Was noch? Nun, das wird sich im Laufe der Zeit zeigen. Noch ist die Branche jung und es braucht noch viele Ideen, Entwicklungen, Standards und Mut damit man Smart Voice und damit auch den VUI-Designer überhaupt beschreiben kann. So wie der Screen-Designer seinen Weg als Berufsbild gefunden hat, so wird auch der Smart Voice/VUI-Designer seinen Weg finden, das ist sicher.

Und was ist jetzt mit „Programmierung“? Was soll damit sein? Ein Architekt baut seine Häuser schließlich ja auch nicht selbst. Wer meint ein guter VUI-Designer zu sein, wird kein guter Programmierer sein und umgekehrt. Die Welt der Medien und auch des Smart Voice Segments ist viel zu komplex als dann ein Mensch alleine dieses Wissen innehaben könnte. Es braucht viele Köpfe um Kompetent in allem zu sein. Letztendlich schadet es nicht auch Programmieren zu können um die Grenzen der Systeme und die Realisierbarkeit der Ideen besser abschätzen zu können. Wer jedoch bei der Projektentwicklung eines Smart Voice Projekt den Programmierer nicht eh von vorneherein mit an Bord hat, ist selbst schuld.

Auch wenn die Programmierung das kleinste Todo am Ende der Prozesskette ist, so sollte sie zwingend einen Platz in der Projektentwicklung haben um beratend einzugreifen. Ein Programmierer sollte jedoch, niemals der Kopf eines Smart Voice Projekts sein, ebenso wenig wie ein Marketer, ein Grafiker oder ein BWLer *Zwinckersmile*.
In diesem Sinne, auf auf und werde VUI-Designer. Es wird dein Schaden nicht sein! Hast du noch Ideen um das Berufsbild des VUI-Designers zu deifnieren? Schreib uns: info@internet-of-voice.de

Alexa Magazin – Die Erstausgabe

Durch den großen Erfolg des digitalen Sprachassistenten Alexa von Amazon, war es nur eine Frage der Zeit bis auch ein gedrucktes Magazin seinen Weg in den Markt (ab 21.11.18 verfügbar) und hin zum Nutzer finden würde. Dies ist nun der Fall, das Alexa Magazin des CDA Verlags.

Das Magazin wendet sich an den Endanwender und greift alle Themen auf die sich im Einsatz von Alexa ergeben, so das die Systeme eine wertvolle Hilfe werden. Ob Anleitungen, Tipps & Tricks oder Fachartikel zu bestimmten Themen. Viele Fragen = viele Antworten.

Entsprechend spannend ist es für uns als Internet of Voice gleich bei der Erstausgabe mit dabei sein zu dürfen. Wir freuen uns auf mehr!

SEO für Digitale Sprachassistenten: Der Punkt der Erfüllung und Google Direct Answers

Conversational und gradlinige Unterhaltungen per Bildschirm sind kein Voice!

Sprache ist mehr ein Graph mit vielen Querverbindungen als ein Baum. Niemand schreibt wie er spricht, daher lassen sich Chatbots auch nicht mit Sprachassistenten gleichsetzen oder eben mal so mitabhandeln. Sprache ist chaotisch aber auch hochemotional, motivierend und hochgradig persönlich und vor allem direkt im Ohr den Empfängers. Also eigentlich genau das, was das Marketing sich wünscht. Content-Marketing in einem Dialogmodell ist unabdingbar um den Kanal der Digitalen Sprachassistenten für sich einzunehmen. Ein Fakt den aktuell nur sehr wenige verstehen oder gar bedienen können. Da hilft es auch nicht wenn die Redaktionen falsch voneinander abschreiben um die Welle mitzureiten oder man aus der Webseite einen Skill erstellen lässt. Das Ergebnis wäre/ist da nur eine weitere von vielen schlechten Sprachanwendungen die Nutzer und Anbieter gleichermaßen frustrieren.

SEO ist für das Online-Marketing eines des wichtigsten Arbeitsfelder, doch genau an diesem Bein sägt der digitale Sprachassistent, da die meisten Skills/Action (=Funktionen der Sprachassistenten) garkeine Suchmaschine mehr nutzen, sondern eigene Ressourcen.

Robert C. Mendez, Speaker für Digitale Sprachassistenz auf der CMCX 2017, webinale 2018, Online b2b conference 2018 u.v.m

Die Eigenschaften von Sprache müssen verstanden werden um zu sehen das dem Nutzer vom Sprachassistenten wie Amazon Alexa oder Google Assistant keine Auswahl mehr geliefert wird wenn die Ausgabe nur „Voice“ ist, sondern nur noch ein einziges, möglichst optimales Ergebnis, den „Punkt der Erfüllung“, den die Voice First-Pioniere Internet of Voice schon lange behandelt und z.B auch der CMCX 2017 zugetragen haben. Genau dies zeichnet sich in den Entwicklungen der letzten Zeit bei den großen Suchmaschinen immer stärker ab.

Da ein Sprachassistent in erste Linie ein „Assitent“ ist, wird es an vielen Punkten so sein das die Ergebnisse selbst, nicht mal mehr bis zum Nutzer druchdringen, da die Maschine sie auswertet und erfüllt. z.B den automatischen Kauf eines ständig gebrauchten Produktes. Dies bedeutet schlicht, das die Suchmaschine dann nicht mehr den Nutzer zufriedenstellen muss, sondern den digitalen Assistenten. Und nein, der Bildschirm wird defitniv nicht sterben, da der Mensch nunmal auch Augen hat, die er behalten und einsetzen will und weil Sprache nun mal eben nicht für alle Anwendungsfälle effizient ist, aber für viele! Es ist also nicht die Frage OB ein Sprache in der Kommunikation mit der Maschine eingesetzt wird, sondern nur „bis zu welchem Grad“. Kapitän Picard ist da mit seinem fliegenden Schrotthaufen Entprise das entsprechende beste Beispiel.

Dann kommen auch noch solche Aussagen daher: “About 30% of searches will be done without a screen by 2020.” (Quelle: Mediapos). Wobei da bereits eher von 50% gesprochen wird.

Noch sind die Folgen und Eigenschaften der Sprachassistenten im Markt zu unerforscht/dynamisch um sagen zu können wie der Hase überall laufen könnte. Es braucht noch viel Diskussion. Die Voice-Provider selbst rätseln noch an ihren Diensten und die Schreiberlinge der technischen Dokumentationen können mit den Änderungen der Entwicklung kaum Schritt halten. Sicher ist jedoch, das wie man früher ein Schild an der Tür, ein Eintrag im Branchenbuch, eine Zeitungsanzeige und dann auch eine Webseite und evtl. App brauchte, nun auch den Kanal der Ditgitalen Sprachassistenten bedienen sollte. Eine Entwicklung die defitniv unumkehrbar ist und von den größten der Großen mit massiven Einsatz und Marktdruck angeschoben ist. Bis 2021 wird geschätzt das rund 2 Mrd. Menschen weltweit Sprachassistenten einsetzen. Also!? 😉

Whitepaper – Sprachassistenten und der Datenschutz z.B DSGVO

Im Rahmen zahlreicher Diskussionen unter den Entwicklern von Digitalen Sprachassistenten, entsteht hier ein Whitepaper / eine Richtlinie die es Entwicklern möglich machen soll, die Verarbeitung persönlicher Daten bei der Entwicklung von Funktionen für den Sprachassistenten besser einzuschätzen und in entsprechenden Datenverarbeitunsgverträgen und Datenbschutzerklärungen abbilden zu können!

Allgemein

Die Datenschutz-Grundverordnung: https://dsgvo-gesetz.de/

Amazon Alexa

Datenschutzerklärung: https://www.amazon.de/gp/help/customer/display.html?nodeId=201909010

Nutzungsbedingungen: https://www.amazon.de/gp/help/customer/display.html/ref=footer_cou?ie=UTF8&nodeId=505048

Nutzungsbedingungen zu Alexa: https://www.amazon.de/gp/help/customer/display.html?nodeId=201809740

Google Assistant

Datenschutzerklärung: https://www.google.de/intl/de/policies/privacy/


Kritik, Ideen? Bitte an info@internet-of-voice.de

Anwaltliche Unterstützung? Siehe: https://www.obladen-gaessler.de/ und https://ra-maas.de/.

Digitale Sprachassistenten für Unternehmen – Programmierung reicht nicht

Digitale Sprachassistenten wie Amazon Alexa und Google Assistant werden von den großen Technologiekonzernen massiv in den Markt gedrückt. Entsprechend geht für keinen Marktteilnehmer ein Weg an diesen Produkten/Diensten/Technologien vorbei.

„Digitale Sprachassistenten für Unternehmen – Programmierung reicht nicht“ weiterlesen