Contents
KI-Chatbots gehören heute zu den häufigsten Anwendungsfällen generativer KI in der technischen Redaktion. Dennoch stehen viele Technische Redaktionen vor der Herausforderung, präzise und rechtssichere Antworten aus Chatbots zu erhalten. Ursache hierfür ist, dass Large Language Models (LLMs), auf denen diese Chatbots basieren, mit alltäglichen Daten trainiert wurden. Diese unterscheiden sich jedoch deutlich von den spezifischen Inhalten technischer Dokumentationen.
Durch den Einsatz von Retrieval Augmented Generation (RAG) und Knowledge Graphen können Technische Redaktionen jedoch das Wissen eines LLMs gezielt erweitern, ohne das Modell erneut trainieren zu müssen. Allerdings ist die Qualität der Ergebnisse direkt abhängig von der Qualität und Strukturierung der bereitgestellten Inhalte – "Garbage in, garbage out" gilt auch hier.
Im Vortrag erfahren Sie, wie Inhalte optimal strukturiert und klassifiziert, um mit Knowledge Graphen die Antworten von KI-Chatbots zu verbessern.
Takeaways
Die Zuhörer:innen lernen, wie Technische Redaktionen ihre Inhalte für Retrieval Augmented Generation (RAG) und Knowledge Graphen aufbereiten und wie sie dadurch die Antwortgenauigkeit ihrer KI-Chatbots verbessern.
Prior knowledge
Retrieval Augmented Generation (RAG)