AI:CAN 2025 in Berlin Recap
AI:CAN 2025 in Berlin – Wo KI-Pioniere Tacheles reden
Die AI:CAN 2025 war keine Kuschelkonferenz. Hier ging es nicht um Buzzwords, sondern um reale Workflows, harte Learnings und konkrete Tech-Stacks. Vom 6. bis 7. Juni trafen sich in Berlin Entwickler, SEO-Profis, Tech-Strategen und Agenturverantwortliche, um zu zeigen, wie KI jenseits von Theorie produktiv eingesetzt wird. Das Campixx-Team stellte ein Programm auf die Beine, das Mut zur Tiefe, zum Code – und zur Selbstkritik hatte.
Ob API-Skalierung, Agenten-Systeme oder GEO-Strategien für ChatGPT und Google AI Overviews: Die Speaker lieferten keine Folien mit Vision, sondern funktionierende Systeme. Wer LLMs professionell nutzen will, musste hier zuhören. Und wer dachte, ein paar Prompts reichen für den Wandel, wurde schnell eines Besseren belehrt.
Inhaltsverzeichnis
Wie du Daten über KI‑APIs direkt in dein System bekommstSpeaker: Dominik Wojcik
Warum deine KI‑Workflows nicht funktionieren (und was du falsch machst)
Speaker: Barbara Lampl
Agentur-Transformation in Zeiten der KI
Speaker: Daniel Döge
KI-Relevanz: "Wenn dich die KI nicht kennt, kannst du einpacken"
Speaker: Chris Weidner
Der Superhelden-Guide: KI-Suche mit den GEO-Spielregeln meistern
Speaker: Michael Weckerlin
RAG Projekt Praxis Case SEO Research Suite / (SEO-) Datenanalysen mit KI
Speaker: Olaf Kopp
Agentic Blog-Content Creation – Wie ein Team von AI-Agents deinen Content generieren kann
Speaker: Marcel Claus-Ahrens
Wie du Daten über KI‑APIs direkt in dein System bekommst
Speaker: Dominik Wojcik
Dominik Wojcik zeigte, wie man mit APIs und LLMs skalierbare Prozesse aufbaut. Sein Fokus lag auf strukturierter Ausgabe, Tool-Vergleich und effizienter Prompt-Verwendung.
- 12–14 LLMs im Einsatz je nach Use Case
- Structured Output per JSON oder CSV empfohlen
- Batch API spart Zeit und Geld
- Prompt Engineering mit Temperature, Chain-of-Thought, Step-by-Step
- Bewertung über ArenaBench, LMSys
Fazit: Wer LLMs professionell einsetzen will, braucht System, Vergleichbarkeit und technisches Feingefühl.
Warum deine KI‑Workflows nicht funktionieren (und was du falsch machst)
Speaker: Barbara Lampl
Barbara Lampl räumt mit KI-Mythen auf. Sie zeigt, warum Workflows, nicht Tools, das Problem sind – und wie man sie KI-tauglich macht.
- Workflows zuerst, Tools später
- KI braucht expliziten Kontext – LLMs haben kein Gedächtnis
- Prompt-Splitting verbessert Qualität
- PDFs schaden der Verarbeitung – lieber Markdown/YAML
- Voice-Prompting auf Smartphones unterschätzt
Fazit: KI kann nur so gut sein wie der Workflow, den man ihr beibringt – klare Prozesse sind Pflicht.
Speaker: Daniel Döge
Daniel Döge sprach in seinem spannenden Vortrag über die fundamentale Veränderung, die Agenturen durch KI erleben. Er forderte mehr als nur Tool-Faszination: Es geht um eine echte Transformation – kulturell, strukturell und wirtschaftlich.
Highlights und Empfehlungen für Agenturen
- Effizienz ≠ Transformation: Tools bringen kurzfristige Effekte, aber kein nachhaltiges Geschäftsmodell.
- Neustart nötig: Bewusster KI-Kick-off in der Agentur setzt neue Energie frei.
- Kompetenzen neu denken: Copywriter, Entwickler, Illustratoren – viele klassische Rollen verlieren an Bedeutung.
- Kundenzugang verändert sich: Kunden holen sich KI-Wissen direkt – nicht mehr automatisch über Agenturen.
- Neue Teamstrukturen: Agenturen brauchen ein starkes, dediziertes KI-Team mit Entscheidungsfreiraum.
- Weg vom Stundensatz: Alte Abrechnungsmodelle brechen – neue Wertmodelle werden überlebenswichtig.
- Transformation ist ein Marathon: Einzelaktionen und Tool-Hopping reichen nicht.
- Junioren sterben aus: Der Markt verlangt Senior-Kompetenz – sofort einsatzbereit und urteilssicher.
- Alte Angebote neu denken: Was früher zu teuer war, kann mit KI effizient umgesetzt werden.
- Markenführung gefragt: KI kann viel – aber Kundenverständnis, Erfahrung und Gefühl bleiben menschliche Domänen.
Fazit
KI ist kein Werkzeug – sie ist eine tektonische Verschiebung für Agenturen. Wer jetzt nicht investiert, verliert – Kompetenz, Kunden, Relevanz. Daniel Döge appellierte an Agenturen, sich bewusst zu transformieren: Nicht wegen des Trends, sondern um die eigene Zukunft aktiv zu gestalten.
KI-Relevanz: "Wenn dich die KI nicht kennt, kannst du einpacken"
Speaker: Chris Weidner
Chris Weidner sprach provokant, pointiert und praxisnah über eine unbequeme Wahrheit: Wer in KI-Suchen wie ChatGPT, Perplexity oder Google AI Overviews nicht auftaucht, wird digital irrelevant. SEO müsse sich neu erfinden – als Answer Engine Optimization.
Highlights und Empfehlungen für SEO-Profis und Content-Schaffende
- Sprachmodelle statt Linklisten: Google, ChatGPT & Co. denken in Bedeutungen, nicht in URLs.
- KI-Relevanz vor Sichtbarkeit: Wer nicht in AI-Antworten genannt wird, existiert bald nicht mehr online.
- Maschinenlesbarkeit entscheidet: Klarer Aufbau, eindeutige Sprache, echte Expertise und Autorenprofile sind Pflicht.
- Zero-Click nimmt zu: AI Overviews machen Informationsportale, Vergleichsseiten und Affiliates zunehmend überflüssig.
- Fokus auf W-Fragen: KI bevorzugt Inhalte, die präzise Nutzerfragen sofort beantworten – gleich im ersten Satz.
- Semantisches Klima aufbauen: Marken brauchen sprachliche Konsistenz, Authentizität und emotionale Verankerung.
- Strategie statt Taktik: Ohne semantische Klarheit und KI-kompatible Markenführung bleibt man unsichtbar.
- Tech-Facts: LLMs speichern keine URLs, sondern Vektoren. Redirects funktionieren semantisch, nicht technisch.
- SEO ist nicht tot: Es wird zur AEO – Answer Engine Optimization. Klar, strukturiert, userzentriert.
- KI hört zu: Vermeide Sprachmischmasch, schwammige Metaphern und übertriebene Marketingfloskeln.
Fazit
Chris Weidner fordert: SEO muss strategischer, sprachlicher und maschinenorientierter werden. Wer denkt, ein bisschen AI-Optimierung reicht, hat das Spiel nicht verstanden. Wer Relevanz behalten will, muss Haltung, Klarheit und konsistente Inhalte liefern – kanalübergreifend und KI-kompatibel.
Der Superhelden-Guide: KI-Suche mit den GEO-Spielregeln meistern
Speaker: Michael Weckerlin
In meinem Vortrag ging es um einen Perspektivwechsel: SEO endet nicht bei Google – Sichtbarkeit beginnt bei KI-Suchsystemen wie ChatGPT, Perplexity oder Google AI Overviews. Ich zeigte, wie man mit den GEO-Spielregeln (Generative Engine Optimization) neue Superkräfte für Content entwickelt.
Highlights und Empfehlungen für GEO-Optimierung
- Content braucht Superkräfte: GEO macht Inhalte sichtbar in LLMs und AI Overviews – nicht nur in klassischen SERPs.
- Anders denken: Statt nur Keywords zu optimieren, geht es um Entitäten, Kontext und semantische Klarheit.
- KI verstehen: LLMs interpretieren Inhalte vektorbasiert – nicht linkbasiert. Struktur, Klarheit und Relevanz sind entscheidend.
- Sichtbarkeit messen: GEO-Tools wie Otterly.AI oder AI Search Grader zeigen, wo Inhalte in AI-Antworten auftauchen.
- Technische Optimierung: Server Side Rendering (SSR), Robots.txt für KI-Bots, strukturierte Daten bleiben essenziell.
- GEO braucht Strategie: Inhalte, Autorenprofile, Quellenverweise und klare Aussagen machen den Unterschied.
- Use Cases einbauen: Wer prompt-orientiert denkt, liefert bessere Antworten für Chatbots & AI-Overviews.
- Brand stärken: GEO ist auch Reputationsarbeit – KI bevorzugt bekannte, vertrauenswürdige Quellen.
- Der GEO-Berg: Wer ganz oben erscheinen will, braucht Weitblick, Tools und echtes Know-how – keine SEO-Tricks von gestern.
Fazit
GEO ist kein Hype, sondern die neue Realität der Sichtbarkeit. Wer heute noch auf klassische SEO allein setzt, verschenkt Potenzial. Ich zeige: Mit dem richtigen Setup und KI-Kompetenz wird aus einer Website ein digitaler Superheld.
RAG Projekt Praxis Case SEO Research Suite / (SEO-) Datenanalysen mit KI
Speaker:Olaf Kopp
Olaf Kopp präsentierte auf der AI:CAN 2025 seine SEO Research Suite – eine Datenbank mit Analysen von Patenten und Research-Papern, die er zur Optimierung für LLMs nutzt. Er zeigte, wie er diese Inhalte analysiert, aufbereitet und über Workflows nutzbar macht – unter anderem für SEO-Optimierung, Briefingerstellung und Content-Zitierfähigkeit in AI Overviews.
Highlights und Erkenntnisse
- Olaf Kopp analysiert wöchentlich neue Google-, OpenAI- und Microsoft-Patente und speist diese in eine eigene Datenbank ein.
- Er nutzt Tools wie Chatbase, HABA.AI und eigene GPTs zur Analyse, Indizierung und Beantwortung komplexer SEO-Fragen.
- Der „SEO Research Agent“ basiert u.a. auf dem Erbe von Bill Slawski und verarbeitet semantische SEO-Patente.
- Für AI-Zitierfähigkeit entwickelte er einen „LLM Readability Check“ mit Fokus auf AR-Overviews und Passage-Based Indexing.
- Er nutzt Make, Monday und Google Docs für automatisierte Content-Briefings – mit präziser Qualitätskontrolle in jedem Schritt.
- Seine Content-Workflows analysieren automatisch SERPs, Entitäten, Fragen und Lücken im Wettbewerbscontent.
- Produktseiten werden KI-gestützt umgeschrieben – inklusive Titel, Beschreibung und Mehrwerten aus Bildern.
- Besonderes Augenmerk legt Olaf auf Chunk-Relevanz und semantische Verlinkung innerhalb von Texten für LLM-Verarbeitung.
- Newsletter, Podcast („SEO Research Week“) und Assistenten-Chatbots ergänzen das Ökosystem.
Fazit
Olaf Kopp zeigt, wie tiefgreifende Patentanalyse und Automatisierung ineinandergreifen können. Seine Research Suite ist keine Spielerei, sondern ein ernsthaftes SEO- und LLM-Forschungslabor. Wer in KI-Sichtbarkeit investieren will, kommt um semantische Optimierung und ein strukturiertes Research-Setup kaum noch herum.
Agentic Blog-Content Creation – Wie ein Team von AI-Agents deinen Content genieren kann
Speaker:Marcel Claus-Ahrens
Marcel präsentierte auf der AI:CAN 2025 ein beeindruckendes Agenten-System zur automatisierten Erstellung von SEO-Blogartikeln. In seiner Live-Demo zeigte er, wie spezialisierte KI-Agenten kollaborieren – von Recherche über Keyword-Analyse bis zur Texterstellung. Das System basiert auf orchestrierten LLMs, Tools wie Perplexity, Quadrant, Make und Cluadine sowie einem strikten Workflow mit Supervisor-, SEO- und Content-Agenten.
Highlights & technische Insights
- Agenten mit klarer Rollenverteilung: Supervisor-, SEO-, Research- und Content-Writer-Agenten übernehmen definierte Aufgaben im Content-Workflow.
- Vectorstore + RAG: Rechercheinhalte werden persistiert, indexiert und den Agenten für spätere Kontexte via Retrieval zugänglich gemacht.
- SEO-Daten aus dataforseo: Keyword-Daten (Volumen, CPC, Difficulty) werden automatisch verarbeitet und in eine Meta-Strategie überführt.
- Content in Abschnitten geschrieben: Jeder Absatz wird einzeln generiert, mit Zugriff auf Outline, SEO-Analyse und Knowledgebase.
- Refinement via Content-Refiner: Nach der Erstgenerierung erfolgt ein finaler Feinschliff, inklusive Keyword-Platzierung und Formatierung.
- Toolstack: Genutzt werden u.a. n8n, Make, Cluadine (für Entitäten-Gap-Analyse), ChatGPT, Perplexity, Quadrant und Google Sheets.
- Live-Demo mit Output: Marcel generierte im Vortrag einen echten Artikel zum Thema „Chain-of-Thought Prompting für Anfänger“ – inklusive Einleitung, Vorteilen und Praxisbeispiel.
Fazit
Marcel zeigte, wie weit KI-Automatisierung in der Content-Erstellung bereits gehen kann. Sein Multi-Agent-System verknüpft SEO, Prompt Engineering und LLM-Automatisierung zu einem skalierbaren Content-Workflow. Der Vortrag war technisch anspruchsvoll, praxisnah und liefert wertvolle Impulse für alle, die Agenten-Systeme selbst bauen oder evaluieren wollen.