News AI 19/26 –

Deepseek V4 // Cursor SDK // Agentic Engineering

07.05.2026

Shownotes

Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video.

Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar

In dieser Folge der AI News beschäftigen sich Dennis und Philipp mit der Frage, ob die Ära der subventionierten AI-Abos langsam zu Ende geht. Während GitHub Copilot seine Preismodelle anpasst und Limits bei Claude spürbarer werden, stellt sich für viele Entwicklungsteams die Frage: Wann ist ein lokales Modell oder eine eigene Rechenkapazität sinnvoller als die Cloud-Subscription? Passend dazu werfen wir einen Blick auf das neue DeepSeek V4, das mit den Versionen Pro und Flash nicht nur durch ein Kontextfenster von einer Million Token beeindruckt, sondern vor allem den Preiskampf bei Frontier-Modellen massiv verschärft.

Ein weiteres Highlight ist die Einordnung von Andrej Karpathy zum Thema „Vibe Coding” vs. „Agentic Engineering”. Wir diskutieren, warum der einfache Zugang durch Prompting die Basis der Softwareentwicklung verbreitert, aber für professionelle Anwendungen ein tieferes Verständnis der Logik und Infrastruktur unerlässlich bleibt. Karpathy betont dabei, dass ihr zwar das Denken auslagern könnt, aber niemals das Verständnis für das System verlieren dürft. 

Zum Abschluss tauchen wir in das frisch veröffentlichte Cursor SDK ein. Damit erhaltet ihr die Möglichkeit, die Intelligenz des beliebten Editors direkt in eure eigenen Workflows, CI-Pipelines oder benutzerdefinierten UIs zu integrieren. Besonders spannend ist hierbei der Cloud-Modus, bei dem der Agent in einer isolierten VM arbeitet, während ihr lokal die volle Kontrolle behaltet.

/transkript/programmierbar/news-ai-19-26-deepseek-v4-cursor-sdk-agentic-engineering
Dennis
Hallo und herzlich willkommen zu 1 neuen AI News, Kalenderwoche 19 im Jahr 2026. Wir sprechen heute über Deepseek in 1 neuen Version Nummer 4, über das Curcer SDK und ein bisschen über die Begriffe des Vibe Coding und Agentic engineerings. Ich bin Dennis Becker und bei mir ist Der Philipp, hallo. Moin Philipp. Müssen Sie wieder auf Fabi verzichten, der angeblich viel zu arbeiten hat.
Philipp
Arbeitet er nicht mehr bei Lotum?
Dennis
Dann doch, okay. Sehr gut. Fraute meint er schon 2 Sekunden, den zu verstehen. Doch doch, arbeitet doch bei Lotum, aber er hat gesagt, meine seine Nachricht war so was wie diese Woche noch mal aussetzen, aber dass er zuversichtlich ist. Bald wieder hier.
Philipp
Ja, das ist meistens immer noch so, dass anfangen vom Ende. Das heißt, wenn Fabi dann nicht mehr mitkommt, dann wissen die Zuhörer auf jeden Fall Bescheid. Ja.
Dennis
Aber wir haben so so wir müssen mal, keine Ahnung, darf man hier schon so direkt interne interne Gedanken, nein, sind's ja nicht programmier.bar, ist ein öffentliches Format, was wir haben, aber natürlich schon die Überlegung, ne? Auch in den News ist ja jetzt viel mit AI einfach und ich meine, ein Framework Update wird einfach in der Zukunft nicht mehr so relevant sein, sondern die Sachen, die uns halt beschäftigen, sind AI und Softwareentwicklerin da draußen irgendwie hat halt mit AI zu tun und nutzt diese Tools, ob da mittelfristig halt diese Trennung zwischen AI News und News noch sinnvoll ist oder wenn's nicht sowieso auch die Themen gibt. Und vielleicht kann man es trotzdem ein bisschen irgendwie einmal theoretischer, einmal ein bisschen praktischer Anwendung. Muss man ein bisschen gucken. Falls ihr Feedback dazu habt, wie ihr euch gerne das Format vorstellt hier in der programmier.bar, schreibt uns gerne an Podcast at programmier.bar oder über unsere Webseite Programmier Punkt bar. So. Jetzt kommt mir spontan der Übergang. Vielleicht machen wir Wir machen wir schweifen erst mal ganz kurz ab von der Agenda Fälle. Ich würde mal gerne interessieren, was dein Take dazu ist. Weil wir haben jetzt so intern bei uns Also Diskussion ist vielleicht ein bisschen übertrieben, aber so das erste Mal diese Gedanken, wenn wir jetzt ne eine Claw Subscription haben oder auch von mir aus eine Code Subscription, so dass wir immer mal häufiger jetzt in die Limits laufen von von den Abos. Wir hatten es ja glaube ich das letzte Mal schon gesagt, so ja okay, muss man dann 2 Abos machen oder so. Aber irgendwo ne ist ja irgendwie merkt man auf jeden Fall, da war dieser Test von Anthropic, wo sie das Cloud Kohl aus dem aus dem Basic Plan rausgenommen haben. Kodex, was jetzt deutlich begrenzter ist von von von den Möglichkeiten, die in den Abos mit drin sind, dass es tendenziell ein bisschen teurer wird und ich meine, bis zum gewissen Grad kann man bei uns einfach irgendwie sagen, ja das ist alles okay, ne? Also ich meine, Du hast einen Mehrwert davon, ob das jetzt 100 Dollar kostet oder 200, 300, 400 wahrscheinlich auch 500 Dollar und ich würde auch so sagen, wie 1000 Dollar, die ein Nutzer im Monat noch zusätzlich hat, ist irgendwie diesen Mehrwert, den man aktuell dadurch spürt, irgendwie wehrt. Und trotzdem ist ja dann ein bisschen die Frage, okay, wohin geht da so ein bisschen die Zukunft? Und da ist ja im Moment so ein bisschen, ja okay, wird einfach alles teurer und diese diese Pläne sind irgendwie subventioniert. Aber ist nicht auch gleichzeitig, also ist nicht der Marktdruck so groß, dass die Leute irgendwie die Modelle an die Leute bringen wollen und die Weiterentwicklung in Performance der Modelle und in und an Rechenleistung, irgendwie skaliert die nicht auch so, dass das Ich kann mir irgendwie nicht vorstellen, dass es exorbitant wird. Es gab irgendwie, hatten wir das schon in der letzten Folge? Muss ich ja auch für's hier oder privat diskutiert haben. Es gab irgendwie so einen x-Post, wo 1 gesagt hat, hey wir fangen jetzt wieder an Junior Leute einzustellen, weil die sind günstiger als unsere Token Kosten. Was ist dein Text so mittelfristig? Ich meine, wenn's jetzt bei kurzfristig, ne, werden so jetzt Zeiten gibt, wo es entweder zu billig ist oder von mir aus auch dann irgendwie zu teuer, aber wird das zukünftig eine relevante Überlegung sein, so?
Philipp
Also ich glaub, wir werden immer wieder darüber reden. Also man hat ganz stark gemerkt, dass vor allem in den letzten 6 Monaten die Subscriptions ja krass subventioniert waren. Man sieht's jetzt, glaub ich, vergittab war letzte Woche, die neue Subscriptions posiert haben und ihr Pricing Modelländerungen angekündigt haben, was ja, ich glaub, fast im Schnitt dreimal teurer beziehungsweise die Modelle sind dreimal teurer in deiner Subscription und Du bekommst jetzt nur noch sozusagen Credits für 20 Dollar und kannst sie dann aufnutzen. Also man sieht an allen Enden, dass halt Computing immer noch immer noch Computing constraints sind und dass halt Leute bereit sind, mehr Geld auszugeben für mehr Tokens. Das heißt, Du hast halt eine viel höhere Nachfrage als das Angebot und das drückt halt irgendwie den Preis 'n bisschen und ich mein für Antropic oder für andere und ich mein, ob mehr ist, sieht aktuell noch am besten aus, aber Du hast halt nur eine gewisse Anzahl an Computern und wenn Du nicht mehr hast, kannst Du halt auch nicht mehr Leute holen und irgendwann fängst Du dann den Preis halt anzupassen oder das mehr kalkulierbarer zu machen. Und im gleichen Zug sehen wir aber halt auch, dass Modelle günstiger werden. Ich mein, ich hab jetzt zum Beispiel, wo ich in den USA unterwegs war, ich hab Jimmer a 26 b 4 a lokal genutzt auf meinem Macbook. Und klar ist es nicht irgendwie das beste Frontiermodell und macht alles hands off von alleine, aber es kann schon sehr, sehr viele Dinge sehr, sehr gut. Und ich glaub, wir werden halt immer son Auf und Ab haben. Also ich wär, wird fast sicher sein, dass die, wie sagt man da, die schöne Zeit von Claude Max 200 und irgendwas und so viel prompt, wie's nur geht, irgendwie jetzt langsam zu Ende geht. Wir werden bessere, teurere Modelle bekommen, weil die halt auch trotzdem immer noch größer werden. Also man merkt es halt nicht so krass, aber es gibt ja sehr, sehr viele Andeutungen immer wieder, dass die Modelle halt trotzdem noch größer werden. Man sieht's ja auch jetzt im Open Source Bereich. Wir werden gleich über Deep Sieg 4 reden. Auf der anderen Seite siehst Du halt auch im Open Source Bereich, wie es kostengünstiger geht. Also es wird 'n umkampfter Markt bleiben und ich glaub, als Unternehmen musst Du dich dann halt schon irgendwann mal damit befassen, okay, worauf fokussiere ich mich? Also, bin ich bereit, Providers eher zu wechseln oder bin ich bereit, irgendwie 6 Monate hinter allen zu sein, aber dafür fünfmal günstiger? Oder investiere ich vielleicht selber wirklich in eigene Rechenkapazität, weil Modelle jetzt so gut sind, dass es keine Ahnung ab 50 Mitarbeiter günstiger wird für mich, die Modelle selber zu rosten oder so. Ja.
Dennis
Ja, aber siehst Du irgendwo eine irgendwo einen Pfad, wo das wo man wirklich die Abwägung treffen muss, ob man da jetzt ein Mitarbeiter für einstellt oder eine Nein.
Philipp
Ich mein, ich hab das davor auch nicht gesehen. Ich bin immer noch der starken Meinung, dass mit dass Du mehr Leute einstellen kannst, dass Du produktiver dadurch wirst und nicht halt also ganz vieles ja immer wieder mit Kosten reduzieren verbunden und ob ich dann, klar, ich kann halt Kosten nicht reduzieren, wenn ich mehr Kosten hab durch Token Useage. Also das verstehe ich dann schon wieder. Und ich mein, das ist bewegt man sich, glaub, eher an son bisschen übertriebenen Hype Social Media in dem dann. Ja, weil ich würde eben auch sagen, weißt
Dennis
Du, weil die die die Open Modelle oder die man lokalen Modelle, die man halt jetzt nutzen kann, die sind ja qualitativ eben auch schon so gut, dass da absehbar ist, dass es einen Pfad gibt zu auch noch besseren Modellen, weißt Du? Da ist ja jetzt auch nicht, warum sollte da jetzt gerade das Limit erreicht sein im im Mai 2026 und es nicht weitergehen. Und wenn Du das halt irgendwie siehst, wenn das noch ein Stückchen besser wird und das heutige Rand rutscht, dann kannst Du halt auch einen Großteil der aktuellen Codingsachen ja irgendwie auch lokal laufen lassen. Und ja, es wird dann wahrscheinlich immer noch die die Frontierungen Modelle geben, die es irgendwie in der Cloud besser können oder noch besser sind oder schneller oder weiß ich nicht. Aber von daher ist die Szenario für mich so, ich glaube, es wird mittelfristig halt keine trotzdem keine große Abwägung. So. Ja, es kostet Geld und ist eine Kostenstelle so, die man im Moment hat, aber ist natürlich auch für viele eine Produktivitätsschraube so, die man die man sonst auch noch nicht gesehen hat. Von daher, ja. Ich glaube, es
Philipp
ist schwierig zu planen, ist auf jeden Fall gut, sich damit zu beschaffen, beschäftigen was für Möglichkeiten. Man hat noch nicht einfach nur Beta Subscriptions zu kaufen. Dann werden wir sehen, wohin sich die Produkte entwickelt, weil irgendwann wird halt 'n Produkt kommen, die diesen Router vielleicht besser implementiert und dann wieder bessere Subscriptions anbieten kann, weil 60 Prozent der Querys, die Du halt schickst, gehen zu dem kleinen schnellen Modell, aber Du merkst es zum Beispiel gar nicht.
Dennis
Ja. Oder man nutzt, wie hieß das, Cave like, Caveman. Also dieses, gab mal son Cloud Code Skill, der gesagt hat, der das LDM redet oder Cloud soll nur noch wie wie Höhlenmenschen reden. Also praktisch so alles reduziert auch nur noch Inhalt und dass man wenig Kontext verliert, aber trotzdem irgendwie, weiß ich nicht was, 60 Prozent Token oder so ausgespart hat. Das würde ich dann ein Zwischenweg. Gut, sollte eine Überleitung auch werden zu Deep Sieg, denn da sind wir bei einem großen Modell, was aber doch deutlich günstiger ist.
Philipp
Genau, Deep Sieg 4 endlich jetzt. Ich mein, das würde ich glaube die letzten 6 Monate überall angeteasert son bisschen, endlich da mit 4 Modellen. Wir haben Deep Seek V4 Flash und Pro in der Base Variante, das heißt, man kann es selber fine tune und in der bereits getunten oder Post trend Variante. Die Pro Variante, weil wir die Größe erwähnt haben, hat jetzt 1.6 Trillionen. Das heißt, den Deutschen hätten wir Millionen Milliarden Billionen. Also einige Modelle einige Parameter. Auch wieder 'n MUI mit 49000000000 aktiven Parametern, so 1 darunter, Flash im Modell hat 284000000000 Parameter und 13 aktive. Das heißt, wir haben jetzt 2, 'n kleines, 'n großes. Sie haben einen schönes Paper dazu veröffentlicht. Das heißt, wenn ihr euch damit beschäftigt, sehr, sehr zu empfehlen durchzulesen, sie teilen auch wieder 'n bisschen 'n paar Dinge, wie sie Caching verbessert haben und wie Sie's trainiert haben, wie das Pre Training Dataset ausgesehen hat und Post Training auch. Neue Features, es ist jetzt 'n 1000000 Tokenkontext von bisher 128000. Sie sagen, durch die ganzen Verbesserungen haben Sie die Cash Size, also 10 nix reduziert. Das heißt, man braucht weniger Arbeitsspeicher, halt 'n längeren Kontext zu nutzen. Sie sagen von, man braucht A8 B 200 NVIDIA GPUs, damit man es komplett nutzen kann. Und da wir über Pricer geredet haben, was find ich das mit interessanterste ist, weil im Verhältnis zu Deep Sieg 3, was vor eineinhalb Jahren ungefähr rauskam, war ja damals der große Wow Effekt, okay, Open Modelle haben irgendwie aufgeholt und sind jetzt so gut wie die Frontier Modelle. Deep Sieg ist definitiv 'n Schritt in diese Richtung, aber es war jetzt nicht dieser Wow Effekt. Aber die Kosten sind der Wow Effekt. Und zwar kostet die pro Variante ein Dollar 74 pro Million Input Tokens Non Cash und 3 Dollar 48 pro 1000000 Output Tokens. Und die Flash Variante kostet 14 Cent pro 1000000 Input Tokens und 28 Cent pro 1000000 Output Tokens, wenn man dann Cachets hat, was ja, sag ich mal, zum Beispiel bei Coding relativ oft der Fall ist. Das heißt, wenn ich einen vorherigen Zug einfach diese Input Tokens noch mal hab, dann müssen die nicht neu berechnet werden. Da kosten dann die Tokens für die pro Variante 14 Cent und für die Flash Variante 2.8 Cent pro 1000000 Input Tokens. Das heißt, extreme Kostenersparnisse und auch Simon Willerson hat das mal 'n bisschen aufgefächert. Die Flash Variante ist günstiger, ist viermal günstiger im Output als GPT 5 Punkt 4 Nano und Gemini 3 Punkt 1 Flash Light, zehnmal günstiger als Gemini 3 Flash. Zwischen 12 und 15 Mal, ich weiß jetzt nicht genau das warte, Jimmill Live 5 Punkt 4 mini. Es ist zwanzigmal fast günstiger als Cloud Haiku, dann die Pro Variante, welche wirklich nah an das Frontier, sag ich mal, kommt, ist bis zu 4 beziehungsweise fast zehnmal günstiger als Opus oder GPT 5 Punkt 5 und Gemini. Also schon einiges und dann stellt sich halt die Frage so, hey, brauche ich dann das Beste vom Besten oder speicher ich halt fünfmal die Kosten und nutzt halt irgendwie DeepSeak, was auch mittlerweile auf allen gängigen Open Model Providern wie Fireworks oder halt auch im Open Right Router verfügbar ist für meine Arbeit.
Dennis
Und ich glaube, die Aussage, war das von Ihnen selbst, dass Sie gesagt haben, Sie haben das Gefühl, das ist so 3 bis 6 Monate hinter den großen anderen State of the Art modeln? Nee, ich
Philipp
meine, das sieht man ja ein bisschen. Also ich glaube, das letzte Beispiel war mit Kimmy K Kimmy K2, also die 2 Punkt 6 Variante, die kam ja vorn paar Wochen. Und die ist man son bisschen auf so nett 4 Punkt 5 Niveau, sag ich jetzt einfach mal. Klar, es ist immer, wie man das beschreibt und für welche Aufgaben und welche Modelle dies. Man kann immer noch sagen, dass Open Modelle alles, was mit Video zu tun hat bei Tinder Gemini sind, aber halt vor allem im Coding Bereich oder in dem Agentic Coding Bereich, ist es halt so, sagt man 3 zu 6 Monate Basis, kann man das nicht so genau sagen.
Dennis
Ja, okay. Und kannst Du noch mal kurz für mich recappen, weil Du ja gesagt hast, ein Open Modell. Also was ist davon jetzt Open?
Philipp
Also DeepSeak hat eine Open Source Lizenz, in dem Fall MIT. Aber man hat nur die Waits, also die die Parameter und den Inference Code. Das heißt, Du hast nicht irgendwie 'n Trainingscode, den der von DeepSeak genutzt wurde. Du hast auch nicht den, ich weiß nicht, ob DeepSeak intern eine andere Inference Engine hat, aber Du hast halt Support in Transformers, also in Hingingface, in VLM, in SGLING, in MLX, also in all den gängigen, sage ich mal, Open Source Frameworks, da hast Du Support, das Modell laufen zu lassen und auch trainieren zu können, in Transformers zumindest. Aber Du hast nicht den originalen Code, den die genutzt haben zum Trainieren oder für Inference. Du hast die Trainingsdaten nicht. Deswegen eher 'n Open Wait Modell als 'n Open Source, weil natürlich der Source Code für das Modell an
Dennis
an sich nicht nicht da ist. Okay. Und Sie bieten sozusagen als Service trotzdem an, dass man das eben daher kommen dann die Kosten. Das sind die offiziellen Kosten, wenn man sich über die Apinos. Du kannst
Philipp
ja aber auch
Dennis
Du könntest es theoretisch auch auf eigener Hardware
Philipp
Server Ja, ja, Du kannst einfach Amazon, Google Cloud, wo auch immer Du dein hast. Simon hat auch die Flash Variante auf 'nem MacBook M5 Pro mit 128 Gigabyte Arbeitsspeicher laufen lassen können in 'ner, also quantisiert, also in in vor. Und an sich die Modelways ist halt schon das die Pro Variante hat 865 Gigabyte und die Flash Variante 160 Gigabyte. Also man braucht schon 'n bisschen GPS, dann selber's zu betreiben zu können, aber man kann's klar, wenn ich irgendwie Amazon oder Azure oder wie auch immer Kunde bin und sag, hey, ich mach ich rechne hier gegen. Es gibt mittlerweile auch Benchmarks, wie viele, sag ich mal, Token, die Du erreichen kannst auf den verschiedenen NVIDIA Chips oder auch anderen Chip und dann kannst Du klar einfach Businessmodell mattemäßig rechnen. Man weiß aber, dass oder interessanterweise ist, dass DeepSeak auf der DeepSeak Cloud oder Plattform, wie auch immer sie's nennen, am günstigsten angeboten wird. Also Okay, das
Dennis
wäre nämlich jetzt die nächste Frage, wie wir jetzt noch mal irgendwie 'n Gefühl dafür hat, was was gängige Kosten sind, wenn wenn das nicht über die offizielle
Philipp
Ja, es ist schon relativ ähnlich. Too together hat jetzt, ich seh's grad hier auf Open Router 4.4 Dollar pro Output. Dann hast Du ganz viele kleineren Provider. Ich weiß jetzt nicht, wie stabil die sind, die haben dieselben Preise wie Deepseak, Aber klar, wenn ich irgendwie über Open Router geh, dann ist es mir am Ende egal und
Dennis
der
Philipp
Average Output Price sind 2 Dollar und 1, also. Aber das sind inkludiert, glaub auch Flashen Defy. Auf jeden Fall sehr, sehr, sehr, sehr günstig. Und ich glaub, wenn man halt irgendwie kein Coding Agent nutzt, sondern normale Anwendungen baut, irgendwas Data Processing oder andere Dinge, dann definitiv vielleicht mal anschauen und durchtesten. Ja. Cool. Sehr gut.
Dennis
Ich wollte noch mal ein Video empfehlen, von einem Interview mit Andre Caparthy. Und der Titel davon war ein bisschen from Wipe Coding to Agentic Engineering. Er ist auch derjenige, der irgendwie den Begriff Wipe Coding so ein bisschen geprägt hat damals und ins Spiel gebracht hat und wo es jetzt eben darum geht, okay zu verstehen oder zu gucken, so wo stehen wir denn aktuell in der Softwareentwicklung und und was sind da so die nächsten Schritte und das sind ja ist ein kurzweiliges Interview, das sind glaube ich 30 Minuten, was man sich mir gut angucken kann, weil ja auch finde ich ganz schöne Beispiele dafür bringt, so wie man zukünftig vielleicht eher über Softwareentwicklung nachdenken muss und was so ein bisschen dann auch noch die die nächste Stufe ist. Wo er irgendwie so sagt, okay, hey, Vibe Coding macht es eigentlich so breiter, also den Zugang breiter, ne? Das heißt, es ist einfach die die die Basis an Leuten, die sich kleine Apps, irgendwelche ja Helfer leihen und sowas erstellen können, die ist einfach viel viel größer geworden und hat da die Bar einfach nach oben gebracht durch. Und dann gibt's trotzdem nochmal irgendwo halt für die, die sich damit auskennen, ne? Weil Du ja irgendwo trotzdem sichere Software bauen musst, so in den meisten professionellen Kontexten. Und Wo eben vielleicht so ein buy coding und ich mach das mal schnell irgendwo dann auch an die Grenzen geht. Dann eben die Idee okay, wie wie kann man das in der heutigen Zeit mit Agenten halt möglichst gut machen. Und wo er sich auch selbst erwischt hat irgendwie, dass er da teilweise noch einfach an so alten Pragmatismen drin hängt, ne? Ein Beispiel, was er gemacht hat. Er hat ein Tool gebaut, was wenn er essen geht, er die Menükarte abfotografieren kann und die passt es dann mit OCR und generiert dann zu geben der Menüeinträge ein Bild, sodass er sich halt irgendwie vorstellen kann, wenn er in anderen Ländern unterwegs ist oder wie auch immer halt er die Gerichte nicht kennt, dass er so eine Vorstellung hat natürlich nicht, wie das in dem Restaurant aussieht, das Essen, aber wie das generisch aussieht. Und hat dann gesagt, na ja, das ist eigentlich irgendwie ein sehr altes altes Bild gewesen sozusagen. Okay, ich baue mir eine App, die jetzt diesen Fall hat, denn danach hat er einfach, ich glaub, Germany hat er genutzt, hat halt einfach in Germany die Menükarte reingepaastet und hat gesagt, hey, generieren wir mal Bilder für die Karte, wo dann im Hintergrund halt mit Nano Banana der Agent praktisch alles zusammengebaut hat und auf das Originalfoto, was er hatte, einfach die Bilder von den Gerichten da drauf gepackt hat. Und wo er so gesagt hat, ja, das ist halt der Schritt, ne, wo das dann noch eine irgendeine Stufe weitergeht, wo man vielleicht auch als Softwareentwickler oft da nicht drüber nachdenkt, dass es halt diese Möglichkeiten gibt und er eher halt irgendwie auch wenn es Infrastruktur geht oder so, eher halt gerne einen einen Prompt haben möchte, dem er einen Agenten gibt und nicht ein installier mal oder tipp diese Zeile ein in der CLI, irgendwas zu machen, sondern ich möchte irgendwie eine Anweisung haben. Das sind die Rahmenbedingungen, die gebe ich einem Agenten und der setzt es halt für mich Ja, da sind so 2 kleine Beispiele daraus, aber war auch ein paar paar ganz gute Sachen. Ich glaube, er endet auch mit einem Zitat, you can outsource you can't outsource you under standing. Wo er eben auch so sagt, okay, ne, es es braucht trotzdem noch jemanden, der da so ein bisschen die Einordnung und die Logik und die Gedanken und warum irgendwie außen rum hat und da ist okay, wie setze ich's und was sind die Rahmenbedingungen oder woran muss ich alles denken? Das sind eben Sachen, die ganz gut übernommen werden können.
Philipp
Ja, ich bin mal gespannt, ob das halt das Problem in langer Zukunft wird. Wir haben ja ganz am Anfang kurz über Einstellungen von Juniorentwickler geredet und ich mein, jemand, der schon, sag ich mal, der jemand, der Programmieren gelernt hat, bevor AI Coding da war, hat der hoffentlich viel von diesem Understanding, deswegen sind wir relativ schnell produktiv gewesen mit den Agents. Aber wenn halt das Understanding irgendwann verloren geht oder wenn man sich schwerer tut, dieses aufzubauen, weil ich halt einfach 'n bisschen betrügen kann und einfach reinhacke und schaue, was rauskommt und wenn's funktioniert, dann geht schon. Bin ich mal gespannt, wo wir in 2 bis 3 Jahren sind.
Dennis
Ja, in meinem Kopf ist immer noch auch so eine eine klaffende Lücke oder wo ich keine Antwort drauf hab so, ist auch, was soll man studieren beispielsweise, ne? Also ich glaube Also ich würde halt heute niemandem nach der Schule empfehlen, Informatik zu studieren, so. Ich glaube, dass das dass das nicht sinnvoll wäre und trotzdem glaube ich, dass einem ein Studium schon irgendwie was gebracht hat, ne, diese logischen Angehsweisen, das Abwägen von Quellen, Also ich meine, da haben wir Kriegt ja schon. Ist ja
Philipp
schon denken.
Dennis
Ja, also ne, ja. Irgendwas hat man ja
Philipp
da schon gemacht, aber ich weiß
Dennis
noch nicht so richtig, was man das in der Realität umsetzen soll. Ist das irgendwie ein allgemeiner Studiengang zu Intelligenz, Intellekt, keine Ahnung oder wie kann man das halt trotzdem irgendwie fördern, dass man, dass man diese Erfahrung hat, selbst wenn man halt dann nicht irgendwie in dem Studiengang die Grundlagen von c lernt, so. Ja. Na ja, mal sehen. Cursor SDK hast Du noch mitgebracht.
Philipp
Genau, ganz kurz, ganz ganz schnell Cursor kennen wir ja. Ad Coding Editor IDI eigentlich. Hat auch eine reli released vorn paar Monaten und hat jetzt ihre eigene SDK released. Vom Konzept her sehr ähnlich zu Cloud Agents SDK oder zu, sage ich mal, der Open e I Agents SDK mit ihrem Sandbox Environment. Ich hab 'n Agent, den ich importieren kann, den kann ich erstellen, dem kann ich sagen, welches Modell er nutzen soll, welche Tools er hat und wo der das Working Directory ist. Und dann kann ich ihn einfach prompten und der Agent fängt an und macht dieselben Ding eigentlich wie mein Editor. Was besonders interessant ist, ist, er nutzt denselben Agent Hannes, das heißt, wenn ihr irgendwie Cursor bevorzugt als Coding Environment, könnt ihr jetzt programmier.bar, nicht programmier, also nicht den Podcast, sondern halt programmiertechnisch die STK nutzen. Sie sagen, es für zum Beispiel CI ist ganz interessant, wenn ich irgendwie halt irgendwelche Dinge mit 'nem Agent automatisiert testen möchte. Sie haben auch coole Cookbooks, wo man 'n App Builder zum Beispiel selber baut, also im Sinne von so ähnlich wie Lovable, halt als Anwendung umsetzen kann, wo dann der Agent drin ist, die ich dann für meine Mitarbeiter bereitstellen kann, wenn ich trotzdem noch bevorzuge, eine App zu bauen. Das heißt, dass ich einfach die Intelligenz oder den Agent aus der IDE rausziehen kann und halt in die Umgebungen packten, die ich bevorzuge. Könnte 'n Slack General sein, könnte keine Ahnung, welches Tool ich auch immer nutzt. Er hat 2, sage ich mal, Ausführungsmodis, was ihn ein bisschen unterscheidet zu allen anderen Agents SDKs, die wir bisher gesehen haben. Wenn ich zum Beispiel ja die Cloud Agent SDK nutze oder andere, dann ist es ja oftmals einfach in dem Environment, wo der Agent an sich oder das Binary läuft. Das heißt, wenn ich irgendwie 'n Redfile macht, dann macht er das auf dem Client oftmals irgendwie den lokalen PC oder so, den wir ausführen. In der Cursor SDK hat man aber auch die Möglichkeit Cloud als Environment anzugehen. Das heißt, ich kann GitHub Repository definieren, wenn ich meine Agent SDK erstelle und halt sagen, das soll in der Cloud laufen, dann führe ich das starte ich das lokal, aber der Agent sozusagen startet eine Cloud VM, wo er dann das Repository runterlegt, da die Aufgaben macht und dann halt wieder die die Events klar zu dem Client zurückstream, aber retro File, right File, irgendwelche Bash Commands laufen, ist nicht in derselben Umgebung, was relativ interessant ist, weil das son, ich sag mal 'n bisschen einen Mix auf der Cloud Agents SDK und Cloud Managed Agents und ich glaube, wir werden da halt noch viel mehr sehen, aber sie haben halt so ein Single Interface, das heißt, ich kann irgendwie lokal Dinge testen oder kann superschnell mit dem selben Interface irgendwas in der Cloud starten. Was ich glaub, was sehr interessant sein kann, wenn ich irgendwelche Dinge selber bau und das halt nativ in meine App integrier.
Dennis
Ja. Okay. Ja. Okay.
Philipp
Ja. Und ich kann natürlich jedes Modell nutzen, was im Cursor zur Verfügung steht. Kann ein API Key auf meinem Cursor Dashboard generieren. Aktuell ist es nur, also Token ist pay per Use. Ja.
Dennis
Ja. Okay. Ja, ich will dich gerade so. Du hast ja Du hast allen 2 Use Cases gesagt, so. Weil es brennt mir jetzt, wenn ich das höre, nicht so selbst unter den Fingernägeln zu sagen, okay, das ist das nächste Ding, was ich jetzt ausprobieren muss, so die Tasks umzusetzen oder die Sachen zu machen, die ich gerade mache.
Philipp
Also als als als Cookbooks- und Beispielanwendungen haben Sie 'n Kanban Board. Das heißt, ich hab eine UI Anbindung bisschen so ähnlich wie Trello und anstelle, dass ich meine Editor prompt oder mein Chatinterface prompt erstelle ich Trello Tasks, die dann der Agent aufsammelt und anfängt umzusetzen. Dieser App Builder, dass ich halt einfach wie, sag ich mal, Lovable oder wie auch immer halt 'n Ding hab, das halt Anwendungen bauen kann. Sie haben eine kleine Coding Seal eingebaut, wie Du die STK nutzen kannst, deine eigene Sealeiheit zu bauen. Dann haben sie noch 'n Deck Taskrunner und halt 'n kleines Quick Start. Also ich glaube, es geht halt wirklich, es ist immer noch alles immer sehr coding orientiert, wie wir Dinge bauen und wofür wir die nutzen und halt nicht irgendwie in dem Openclaw Horizont, aber ich meine, an sich könntest Du auch 'n Openclaw Version mit Cursor bauen, wo Du halt einfach dieses Gateway Bowser, das dann Telegram oder Whatsapp Nachrichten liest, dann Dinge irgendwo ausführen und dann die wieder antwortet.
Dennis
Kannst Du so
Philipp
was in der Art noch laufen aktuell? Nee. Also jetzt nicht privaten. Ja.
Dennis
Na ja, 2026 kann man noch hin. Ja. Entweder mit Google, das eben im Vorgespräch hatten wir das nämlich bei Google Cloud Next haben wir gestern noch eine Folge offenwohnen, da Jan ja dort war vor Ort und ich ein bisschen enttäuscht war und sagte, da war ja jetzt gar nichts Großes aus der AI Welt, was man irgendwie mitgeschnitten geschnitten hat, was von Google kam. Aber die Google IO, hat Philipp mir dann gesagt, ist auch gar nicht so weit weg in 2 Wochen. Vielleicht gibt es ja da dann noch mal was aus dem Hause Google, über das wir Spreuchen sprechen können. Genau, sonst haben wir intern hier bei Lotrum nächste Woche auch wieder unsere unsere vierte AI Week, wo wir uns alle Zeit nehmen zu explorieren und zu gucken und zu bauen. Vielleicht haben wir da auch 2, 3 Themen, die wir dann das nächste Mal noch mal mitnehmen können. Philipp, vielen Dank für deine Zeit und dass Du wieder hier bei uns warst, bei uns bist und dann wünsche ich euch allen eine schöne Zeit und bis bald. Macht's gut. Tschau.
Feedback