News AI 33/25 –

GPT-5 // OpenAI Open-Source // Genie 3

14.08.2025

Shownotes

AI News mit Fabi und Philipp, diese Woche mit diesen Themen:

Weitere Themen:

/transkript/programmierbar/news-ai-33-25-gpt-5-openai-open-source-genie-3
Fabi
Hallo und herzlich willkommen zu der AI Newsletter in der Kalenderwoche 33 im Jahr 2025. Ich bin der Fabi Fink und mit mir ist wie immer dabei der Philipp Schmid. Hi Philipp. Servus. Wir haben ein paar Themen dabei, wie immer Open AI, diesmal mit Ihrem Launch von Ihrem neuen Modell GPT-fünf oder einem Mix aus Modellen. Genau, das können wir gleich mal 'n bisschen klären. Mit Modellen hört's bei Ihnen aber nicht auf, Open Source Models haben Sie jetzt released. Ansonsten auch sind wir auch bei OnShopic mit 'nem neuen Modell. Es gibt mal wieder ein neues Open World Modell. Wir haben ja schon viel im Spielekontext darüber geredet, diesmal von DeepMind mit Genei dritte China hat auf USA reagiert und auch einen AI Actionplan rausgebracht. Apple überlegt, im AI Race 'n bisschen aufzuholen, vielleicht mal andere Firmen zu kaufen, diesmal 'n bisschen mehr Geld in die Hand zu nehmen. Und ansonsten gibt's auch noch 'n paar neue Modelle, Gwen Image. Wir haben bei Jet Braines mal wieder ein neues AI Coding Tool rausgebracht mit Kineto und auch ein paar kleine andere Themen. Lass uns doch direkt einsteigen und direkt mit dem großen anfangen. Was gibt's bei Open AI ein Neues und was wissen wir über GPT 5, Philipp?
Philipp
Genau, also letzte Woche war eine große Open AI Woche. Wir hatten, dienstags war's, glaub ich, den Open Source Release und dann Donnerstag GPT 5 Lounge. Und ich mein, wir sind jetzt, wir haben jetzt Dienstag, den zwölften August heißt es, sind 5 Tage ungefähr vergangen, sag ich mal, seit dem Release von GPT 5. Und anfänglich großer Hype. Der Livestream beeindruckend, die Demos, Benchmarks, sehr, sehr interessant. Ich mein, die Visualisierungen in den Benchmarks war jetzt vielleicht nicht so gut gewählt, aber eigentlich
Fabi
Ich bin leider später noch mal korrigiert. Sie werden
Philipp
Ja, mittlerweile ist das korrigiert. Aber eigentlich so aufm Papier, sehr überzeugend, auch preislich irgendwie günstiger als 4 Euro und Also man dachte eigentlich, okay, cool, Riesenschritt gemacht. Aber irgendwie in den letzten Tagen hat sich son bisschen das Bild verändert, gerade von Leuten, die es halt irgendwie angefangen haben zu testen oder auch von ChatGPT Users oder Feedback auf Social Media generell, dass man die User gern wieder vor o zurückhätten, was jetzt auch, glaub ich, wieder verfügbar ist oder wie
Fabi
Wie, aber heute kam die Nachricht, ne, dass es jetzt wieder verfügbar ist.
Philipp
Dass wieder verfügbar ist, aber was wurde eigentlich gelauncht? Also es gibt 4 Varianten aktuell, GPT 5, GPT 5 mini, GPT 5 nano und GPT 5 pro, wobei pro noch nicht in der API, glaub ich, zur Verfügung steht und auch noch kein vorhanden ist. Performance auf Benchmarks, überall, sag ich mal, vor allem Mathe und Programmieren, Platz 1 oder halt Rivals Clay oder Gemini in dem Falle. Und preistechnisch bewegen wir uns für Nano bei 5 Cent pro 1000000 Input Tokens und 40 Cent pro Animal Output Tokens. Mini ist 25 Cent, Input 2 Dollar Output und gwd 5 normal ist 1 25 Input und 10 Output. Genau.
Fabi
Genau, und ich mein, bei g p 5 zumindest ja, die Besondere ist ja son bisschen, dass unter der Haube ja dann entschieden wird, welches Modell eigentlich wirklich genommen wird, also g p 5 Ja,
Philipp
das ist nicht. Das ist nur für ChatGPT so. Also für die User, für die normalen User gibt sonen, der basierend auf dem, welche Tools genutzt werden sollen und was gemacht werden soll, das Modell sozusagen zu dem richtigen GPT-fünf-Modell schickt. Man kann als Pro oder Ultrauser, glaube ich, noch selber kontrollieren, aber auch wieder nicht in allen Regionen. Also ich hab Berichte gelesen, dass irgendwie man als, ich weiß nicht, ob Du's kannst, aber dass man sozusagen nicht irgendwie auswählen kann und auch
Fabi
Also ich kann Thinking Pro und five auswählen.
Philipp
Okay. Dann geht's zumindest bei dir, Du bist, Plan.
Fabi
Boris ist ja der dieser Teamplan, also der der 1 Pro Teamvariante sozusagen.
Philipp
Genau, auf jeden Fall wollten sie oder alles läuft 'n bisschen unter dem, hey, wir haben zu viele Modelle gehabt, zu viele Namen und jetzt gibt's einfach nur noch GPT 5 für den Endnutzer und halt für die API die verschiedenen Nutzer, die verschiedenen Modelle. Aber man kann auch, wenn man mehr bezahlt, dann wieder die verschiedenen Modelle auswählen. Ich check's auch noch nicht so ganz genau, was der Sinn dahinter ist, klar. Für den normalen Thomas oder keine Ahnung, die Marie, die halt irgendwie nutzt, denk ich, macht's schon Sinn, dass einfach OpenAI wieder Kosten sparen kann und halt nicht irgendwie das zum besten Modell geht, sondern halt, was es am meisten Sinn in dem Fall mehr oder weniger macht.
Fabi
Ja. Aber ich hab heut noch gar nicht, also ich hab zwar auch bisher das enorm zum gelesen, dass man irgendwo in den Einstellungen die Legacy Modelle wieder auswählen kann, aber bisher hab ich's bei mir zumindest in meinem Interface noch nicht gefunden. Aber ich mein, trotzdem ist er grundsätzlich son bisschen interessant, ne. Also für, ich würd sagen, so von, war ja auch kurz davor, vielleicht können wir den ein paar noch 'n bisschen abhandeln, kurz davor hat ja auch ein Tropic Cloud Opus 4 Punkt 1 Release so ihr großes Flagship Model. Und was ja jetzt, wo wo man sagen muss, also da haben sie auch grade, das haben sie wahrscheinlich kurz vor oder war schon klar, GPTFI Release kommt irgendwie. Und wenn man jetzt zumindest, weil ja grad in Tropic ja im Entwicklungsbereich so aktuell son bisschen State of the Art ist bei, glaub ich, den meisten im Entwicklungsprozess so, muss man sagen, so im SWR Bench, was ja der Benchmark ist für die die Entwicklung, so der Haupt Benchmark. Da sind sich Opus 4 Punkt 1 und TP 5 ziemlich ähnlich. Also TP 5 ist minimal besser, was den Benchmark irgendwie angeht, obwohl ich auch schon einige Berichte darüber gelesen hab, sodass es in der bei den Realtime Anwendungsfällen oder den den echten Anwendungsfällen so im Alltag, dass es da jetzt eigentlich nicht keinen merklichen Unterschied gibt. Gut, ich mein, bei den kleinen Prozentzahlen im Benchmark wird's wahrscheinlich nicht 'n Riesenunterschied machen. Aber ich muss sagen, so insgesamt alles, was ich so bisschen gelesen hab, ich weiß nicht, was Du für Eindrücke noch hast sonst von GPT 5, dass es eher hinter den Erwartungen zurückbleibt als wirklich der nächste große Step so dafür, dass sie's ja eigentlich schon mal zurückgehalten haben, GPT 5.
Philipp
Ja, ich glaub, das Problem ist halt, dass, sowohl Sam Ortmelt als auch andere Mitarbeiter ja in den letzten Wochen und Tagen extrem Hype auf Social Media gemacht haben mit irgendwelchen zweideutigen Bildern von irgendwie Todesstern, die irgendwie hinten hochkommen oder anderen Dingen oder Wake Posting, dass das alles verändern wird. Und an sich ist es halt einfach höchstwahrscheinlich nur eine kleine Verbesserung und dann halt auch wieder die Frage, okay, warum GPT 5 und nicht irgendwie, keine Ahnung, o 4 1, o 5, 4 Punkt 2, wie auch immer. Ich mein, wahrscheinlich 'n guter Schritt, dass sie jetzt alles unter 1 Version vereinbart haben, dass sie jetzt wieder weiter iterieren können.
Fabi
Das glaub ich auch, ja.
Philipp
Und zusätzlich war ja noch son bisschen dieses Chartfiasko, wo sie Balken komplett dargestellt haben. Da waren plötzlich 'n Balken mit 52 Prozent größer als ein mit 1 mit 69 Prozent, was halt zu viel Gelächter, sag ich mal, geführt hat. Ja, aber mittlerweile korrigiert, zumindest in dem Announcement Blogpost von GPT 5. Und ja, das meiste, was ich son bisschen gesehen hab, ist halt Verbesserung, aber viel auch in Richtung Kostensparen und Vereinfachung für und vor allem für ChatGPT, also im Sinne von, hey, man hat wie sone Art gemacht und mit diesem kann man jetzt viel effizienter, sag ich mal, Jet GPT Nutzer abhandeln und man hat nicht dieses wirre Konstrukt, das man bisher hatte.
Fabi
Ja, also es wird dir auf jeden Fall auch recht geben, dass Sie sich mit Ihrem Marketing im Vorhinein oder dem der dem Hype, den sie erzeugt haben durch ihre Social Media Posts, wird ja auch hier irgendwie AGI mal wieder als Begriff in den Mund genommen in diesem Kontext und so, dass es schon sehr nahe ist. Würd ich sagen, damit haben sie sich auf jeden Fall keinen Gefallen getan. Trotzdem soll die Frage selbst ohne das so, also den den großen den großen Wurf hätten Sie dann wahrscheinlich, also es ist nicht so, dass Sie eine Blase erzeugt haben, derer Sie dann nicht gerecht wurden, sondern ich glaub auch grundsätzlich fühlt sich's wirklich eher, hat in der Ausführung auch gut so wie einen an und so grade was Du sagst. So klar, Vereinfachung und irgendwie auch so Userfacing, dass das gar nicht mehr groß auswählen muss. Und ich glaub auch son bisschen von dieser Natur wegzugehen, zu sagen, es gibt die Thinking Modelle und die Non Thinking Modelle. Ich glaub, da werden wir in Zukunft weiter davon wegkommen, dass es wie hinter 'ner Art Fassade ist und man gar nicht genau weiß, wird jetzt grad Thinking genommen oder nicht oder beziehungsweise Thinking wahrscheinlich eher der Default wird, je günstiger die Modelle werden, je nachdem, was der Anwendungsfall ist. Also ich glaub so diesen expliziten Unterschied zu machen. Das ist auf jeden Fall 'n supersinnvoller Schritt, aber eben irgendwie nur ein inkrementeller und nicht wirklich so der nächste große Wurf. Sehr spannend, was das auch für die Konkurrenz, denk ich, bedeutet dann.
Philipp
Na, ich merk doch das eine kleine am Rande. Alle Modelle haben 400000 Token Context, also immer noch nicht irgendwie 1000000 wie von Germany. Eventuell liegt das oder hängt das mit GPS zusammen. Also Open AI nutzt ja immer noch von Open, von NVIDIA GPUs. Wahrscheinlich ist es dann einfach nicht effizient für sie genug, das größer zu skalieren. Und ja, ich bin gespannt. Also ich glaub so, den dem AI Bubble sind viele, viele skeptisch jetzt über das und das ist nicht mehr diesen Lied, den sie irgendwie vor 'nem Jahr hatten oder wo sie die O-Series vorgestellt haben. Ich mein, Benchmarks ähneln sich alle an. Wir haben jetzt mit Antropic, Gemini, und, ja, mehr oder weniger 4 Modelle, die alle irgendwie einigermaßen gleich gut sind. Ich mein, für mich zumindest fällt es noch am einfachsten, Gemini 'n bisschen rauszukristallisieren mit den ganzen multimodal Capabilities, mit dem nativen Video Understanding, dem einen Millionen Token Kontext. Aber ansonsten, ich weiß jetzt nicht, ob da 'n großer Unterschied zwischen Cloud Opus 4 Punkt 1 oder GPT 5 dann existiert, wenn ich als Nutzer entscheiden müsste.
Fabi
Ja, also sind sich auf jeden Fall sehr ähnlich. Ich glaub, im Endeffekt kommt's wirklich auf irgendwie die Anwendungsfälle son bisschen drauf an, was für den speziellen, speziellen Use Cases besser funktioniert, aber auf jeden Fall den klaren Gewinner. Gibt's auf jeden Fall aktuell grad nicht. Aber vielleicht, weil Du sagst, das ist son bisschen so die Bubble und so, wir hatten ja von 'ner ganz gerauauben Zeit uns mal darüber unterhalten, dass die letzte große Investmentrunde bei OpenAI war, wo's son bisschen darum ging, wie sie denn so ihren Revenue prognostizieren für bis, glaub ich, 2030, wo ja auf jeden Fall einige Faktoren noch obendrauf kommen zu dem, was sie damals verdient haben. Jetzt gab's ja noch mal 'n bisschen neue Zahlen so zu dem aktuellen Revenue Growth von OpenAI im Vergleich zu an. Vielleicht bevor wir gleich noch mal auf die Modelle von gehen, darfst Du erst mal darauf einspringen, was zumindest im Vergleich zwischen ganz interessant ist.
Philipp
Genau. Und zwar, es ist von Peter Gosstev und die ist von die Information. Und die haben verglichen oder ist aufgezeigt, der das das in 4 Kategorien, Consumer Subscription, Business and Partner, API Revenue und. Und hat mittlerweile 12000000000 Revenue. Das heißt, bei dem aktuellen, sag ich mal, Umsatz, den Sie gerade machen, auf sehr prognostiziert, werden Sie bei 12000000000, Antropic bei 5000000000. Der große Unterschied allerdings ist, dass mehr als die oder die Hälfte ungefähr aus kommt bei Open AI, bedeutet ChatGPT mit 5500000000.0. Bei Antropic ist es nur 700000000.0. Weitere 3600000000.0 von kommen durch Business und Partner. Also ich geh mal ganz stark aus, da sind die ganzen Governance Contracts jetzt mit dabei oder größere Partnerschaften. Bei sind's nur 0.9 Prozent. Dann im API Revenue, sehr interessant, hat Open Air nur 2900000000.0 und Antropic 3100000000.0. Das heißt, Antropic hat mittlerweile mehr oder generiert mehr durch direkte API requests, wobei sie aufgezeigt haben oder euch zeigen, dass die Hälfte von dem von Antropic durch Cursor oder kommt, also direkte Code IDEs mehr oder weniger. Und dann haben sie noch separat aufgeführt Code einfach mit 400000000.0 und bei einfach 0. Weiß nicht, ob das genauso ganz richtig ist oder Sinn macht, weil Du hast ja auch Codex von, was ja irgendwie jetzt Teil von ChatGPT ist oder noch in Preview. Und ich mein, der ist ja eigentlich codespezifische Produkte, deswegen ist es wahrscheinlich einfach nur noch mal, 'n bisschen zu zeigen, hey, die haben halt dieses Codeprodukt direkt hier.
Fabi
Ja, und auch die Frage so, wo zählt wo ist zum Beispiel der der der zwischen und? Also wenn ich jetzt eine abschließe, so zähle ich dann zu Consumer Subscription. Wenn ich sie auch in Cloud Code nutze oder ist Cloud Code nur, wenn ich mitm API Token meinen Cloud Code benutze? Weil sonst hätt ich auch getippt, so, dass wahrscheinlich viel der Consumer Subscription auch getrieben sind von Cloud Code. Zumindest hat's mich auch dazu gebracht. Ich mein, da sieht man auch noch mal den Vorteil von OpenAI. Ich mein, Sie haben 'n fabelhaftes Produkt, braucht man ja gar nicht groß zu diskutieren, aber son bisschen der der Platztisch, der Erste, der da war und auch, glaub ich, einfach eine so diese grad diese Consumer Subscriptions, man hatte irgendwie 'n Account, dann einfach ChatGPT zu nutzen. Macht bei ihnen halt einfach noch super, superviel aus, so. Und da ist halt die Frage, ob sie das auf Dauer halten können, aber auf jeden Fall sehr interessant, wie extrem da auch in der Zeit gewachsen ist. Aber OpenAI ja auch, ne. Also wenn wir uns zwar darüber unterhalten so, sie sind jetzt bisschen hinter den Erwartungen zurückgeblieben, muss man natürlich trotzdem sagen, dass sie da auf jeden Fall auch mit 'nem Faktor ihren Revue hier erhöht haben. Also sie sind da auf jeden Fall auf 'nem guten Track, was ihren ursprünglichen Plan angeht.
Philipp
Ich glaub, wenn ich mich entscheiden könnte, ob ich lieber hätte oder API Revenue, hätt ich glaub lieber Consumer Subscription Revenue, weil das zeigt ja eigentlich, dass Open Air ein extrem gutes Produkt hat. Und API Revenue ist ja, für alle, wenn man Curse und GitHub anschaut, 'n bisschen, hey, wenn
Fabi
nicht
Philipp
mehr das beste Coding Modell ist, dann wechseln einfach die Provider da und das von kann er dann relativ schnell einbrechen wieder. Genauso schnell wie's gewachsen ist, kann's ja auch wieder verschwinden. Und ich mein, ChatGPT ist einfach de facto der Standard aktuell in dem Bereich.
Fabi
Ja. Ja, klar, auf jeden Fall. Also ist aber halt auch wiederum die Frage. Ich mein, da ist halt, weil OpenA ja auch der größte Name ist, wie lang halten sich Consumer So klar ist der Lock in Effekt sehr viel höher, wenn ich sage, ich hab da meine so, aber wenn sie auch da nicht mehr der absolute Platzhirsch irgendwann sind, so kann ich mir auch schon vorstellen, dass sie da der zumindest nicht so extrem weitergeht, wie er's wie er's jetzt tut. Aber ich, in der in der Theorie würd ich auf jeden Fall auch recht gehen. Also ist sehr viel fluktuierbarer als die Consumer Subscriptions.
Philipp
Wissen wir, wie viele Millionen ah okay, 700000000 Weekly Active User vor 4 Tage hat Jett GPT reportet.
Fabi
Das ist schon einfach eine unfassbar große Zahl.
Philipp
Ja, aber, also, weißt, ich hab nämlich grad nachgeschaut, der AI Mode von Google, der in Deutschland zum Beispiel noch gar nicht verfügbar ist, hat jetzt 400000000 aktive monatliche Nutzer. Und die wird jetzt zu 2000000000 Nutzern mehr oder für 2000000000 Nutzern mehr oder weniger bereitgestellt. Also
Fabi
Mit AI Mode meinst Du, was noch mal da passiert? Das ist
Philipp
bei Google Search die kleine Box oben drin.
Fabi
Mhm.
Philipp
Sag ich nicht, das ist ja Ja,
Fabi
der Overview, ne?
Philipp
Overview und der AI Mode ist sozusagen der dedizierte Modus mehr oder weniger, wo Du wirklich wie son bisschen ChatGPT hast in Google Search direkt drin.
Fabi
Ja. Aber gut, ich mein jetzt natürlich auch, weil's weil, also das das natürlich, das wird vom allgemeinen Traffic von von Google halt gefüttert, ne. Da ist, sie kommen ja nicht explizit wegen des, obwohl ich sagen muss mittlerweile, ist auf jeden Fall, häufig reicht mir das komplett aus. Als Antwort nicht, dass ich das schlecht reden will, nur einfach so, das ist wahrscheinlich nicht der erste Grund, weshalb man da hinkam so. Und zumindest bei den Open Air-I-Subcriptions hat man sich ja deswegen dafür entschieden so. Ja. Aber ja, also das heißt, Du zeigst auf so, sie haben noch 'n bisschen Potenzial nach oben so, also zumindest verdreifachen, wenn man's mit Google vergleicht. Ja, nee,
Philipp
nee, so, hey, das im Verhältnis zu scheint das Modell relativ sicher sein, also wenn man mit vergleicht, aber es passiert ja so viel aktuell. Und Croc hat ja auch unglaublich viele Nutzer über Twitter oder x mehr oder weniger. Deswegen bin ich echt gespannt, wo was die die zweite Jahreshälfte bringt. Also ich ich geh stark davon aus, dass sie sehr stark eventuell mit 'ner 5 Punkt 1 Version kommen und einige Kritikpunkte angreifen, die jetzt aufkommen. Wahrscheinlich wieder, so wie letzten letztes Jahr, Oktober, November, Dezember.
Fabi
Ja. Vielleicht in dem Zuge auch noch Funfact, dass aber den Access von Open AI Mitarbeitern zu Cloud Code revoked hat, weil sie sozusagen gegen die Terms of Service verstoßen haben, weil sie da herausgefunden haben, dass viele der Open Air-I-Mitglieder Mitarbeiter nutzen sozusagen zur Entwicklung teilweise ihre Produkte, aber auch im Research und das natürlich ganz klar gegen ihre Policies verstößt so. War auf jeden Fall in diesem, wenn man sich grad diese Revenue Charts auch grad noch mal anguckt, guckt so mit Opus 4 Punkt 1 und GPT5 irgendwie noch mal 'n ganz lustiger kleiner Move, den da gemacht hat.
Philipp
Ja, aber wir hatten das ja vorn paar Monaten, wo es hieß, dass irgendwie, hat ja auch irgendwie den Zugang dann für Windsurf limitiert und am Ende hat Open Air ja gar nicht Windsorv, ich weiß nicht. Ist, find ich, nicht die beste Entscheidung. Ich mein, es ist ja auch nicht so, dass, keine Ahnung, Apple verbietet irgendwie Google, dass Google Employers irgendwie 'n iPhone kaufen dürfen oder dass Google irgendwie verbietet, dass Apple kein Android oder dass, also ich mein, das macht oder Apple verbietet ja auch nicht, dass Youtube auf auf irgendwie iPhone existiert oder so was. Das ist son bisschen
Fabi
Na ja, also das ist jetzt, also ich halte das auch eher als für einen witzigen Marketing Move so, also so, also ob und ob der gut ist darüber, dass ich's oder so auch streiten. Ist auf jeden Fall 'n Thema, über das man sich unterhält, aber ob das notwendig ist und ob es ihm wirklich den kompetitiven Vorteil bringt so. Ich würde mal sagen, nein. Und ob ich's an Ihrer Stelle machen würde? Auf fraglich, aber zumindest sich deswegen eher als eine witzige Anekdote, als ein strategisten.
Philipp
Ja.
Fabi
Ja, dann lass aber Open AI noch komplett machen. Lassen wir noch über das Open in a I sprechen, mit denen Richtig, das
Philipp
Open a I ist wieder. Und zwar haben sie 2 neue Open Waits mixed of Expert Modelle gelauncht unter Apache 2 Punkt 0, sechsten August. Einmal GPT0S1 100 twenty b, was ein 117000000000 Parameter Modell mit 5100000000.0 aktiven Parametern ist. Und GPT0S 20 b, 22000000000 Parameter mit 3600000000.0 Parametern. Größen wurden gewählt, weil das 120000000000 Parameter Modell auf 1 einzigen Nvidia H-einhundertGpu laufen kann und das 20000000000 Parameter Modell auf einen ungefähr 16 Gigabyte Speicher brauch. Aber nur, wenn man MXFP 4 Quantisierungen nutzt, also einen sehr kleinen oder
Fabi
halt 'n, ja,
Philipp
kleinen Datentyp, sag ich jetzt einfach mal, nicht Datentyp, sag ich jetzt einfach mal. Nicht multimodal heißt, 128 Token Kontextwindo, hat 'n neues spezielles Chatformat, was sich nennt, welches son bisschen zwischen dem und und unterscheidet. Sehr, sehr interessant, auf jeden Fall sich 'n bisschen anzuschauen. Wurde mittlerweile von jeglichen Providern, sag ich mal, gehostet. Das größere Modell beginnt bei 10 Cent pro 1000000 Input Tokens und 50 Cent pro 1000000 Output Tokens. Das 20000000000 Parameter Modell mit 5 Cent und 20000020 Cent pro Million Output Tokens. Und so performancetechnisch, Benchmark wieder sehr, sehr, sehr gut, vor allem, was so akademische Benchmarks oder Mathe Benchmarks angeht, aber son bisschen dasselbe Problem beziehungsweise noch viel stärker. Ganz viele Stimmen und ganz viele Tests sagen mehr oder weniger, hey, die Modelle sind nur gut auf den Benchmarks und es wird auch spekuliert, ob OpenAI eventuell nur auf einhundert Prozent synthetischen Daten trainiert hat, diese Modelle. Er hat so höchstwahrscheinlich mit o- free oder anderen Modellen sozusagen ganz viele Tokens generiert und darauf trainiert. Dasselbe hat Microsoft mit den PI Modellen auch gemacht, mit PI 1 am Anfang, was sehr, sehr klein war und unglaublich gute Performance auf den Benchmarks hatte, aber halt nicht wirklich genutzt werden kann, weil es einfach, ja, ich sag mal in Anführungszeichen, richtig dumm war. Und dasselbe zeichnet sich son bisschen bei den Modellen jetzt ab von Antropic. Also die den den inneren Circle, was so Open Source AI angeht, wenn man dem auf Twitter folgt, hab ich wenig Gutes gelesen oder gesehen und sehr viele sind darüber enttäuscht. Dass das höchstwahrscheinlich nur 'n Benchmarksing mehr oder weniger war, heißt möglichst gut oder 'n möglichst gutes Bild zu erzeugen, dass Sie jetzt 'n super oder performantes Open Source Modell mehr oder weniger haben. Sie haben auch sehr viel like Tensorship reingebaut. Also ich hab gefragt, ob es mir eine SVG von 5 Pokemons generieren kann, was son typischer mehr oder weniger ist. Die Antwort war, hey, nee, ich kann keine Pokemons generieren bei Pokémonons Copyright sind bei der Pokémon Company oder irgendwie so was. Mhm. Also
Fabi
ja. Und kannst Du dir eigentlich 'n Reim daraus machen, warum genau sie den Move überhaupt gehen so? Ich muss sagen, also ich fand's, falls ihr euch selbst mal ausprobieren wollt, wenn nicht irgendwie über irgend eine API ausbleiben wollt, es gibt zumindest auch 'n Chatinterface von GPT von OpenAI für die GPT0S Modelle. Könnt ihr gerne mal selbst 'n bisschen rumprobieren so. Aber so richtig schlau aus dem Move, wenn es dann auch nur, selbst wenn Sie, sagen sagen wir mal, es sei so, dass Sie das auf synthetischen Daten gemacht haben und irgendwie in den Benchmarks gut dastehen wollen, so so richtig den Move mit Ihrer bisherigen Policy hab ich, konnt ich nicht ganz nachvollziehen, auch wenn ich's grundsätzlich erst mal gut finde, dass Sie in die in den Open Space auch gehen.
Philipp
Ich mein, was ich mir halt erklären kann, ist, dass wir ja zum Beispiel zu Gemini Jama haben, was eine Open Source Alternative ist und oder Alternative eher gesagt. Und alles, was Du on device machen möchtest, also sei es iPhone, Android, macht keinen Sinn, wenn das auf 'nem Modell passiert, weil am Ende hast Du ja das Modell auf deinem Gerät. Das heißt, Nutzer werden immer an und an das Modell kommen. War ja bei Apple auch mehr oder weniger so, das war ja superschnell geleakt. Ja. Und ich mein, da macht es ja nur Sinn, wenn ich die, sag ich mal, On Device- oder Edge Strategie mit 'nem Open Modell fahre. Man weiß ja nicht, was OpenAI in der Zukunft so geplant hat oder auch diesen Hybrid Ansatz, dass ich für supereinfache Querys mehr oder weniger 'n lokales Modellnotion für etwas komplexere dann Richtung Server gehe, eventuell auch nur Marketing und dass sie halt relevant bleiben für eventuellen weitere. Oder ich mein, es gibt viele, kann viele Gründe dafür geben und sprechen. Und ich mein, Sam Ortman hat ja auch vor einiger Zeit halt gefragt und ob die Leute so was gern hätten. Es kann auch sein, dass es son bisschen auch inner oder von innen herausgetrieben wird, dass Researches oder Mitarbeiter gern wieder 'n Open Modell machen würden und ja. Also ich mein, jetzt nicht ist es richtig cool. Bisschen schade, was dabei rumgekommen ist höchstwahrscheinlich, weil sie haben auch kein Basemodell Release. Das heißt, es ist nicht so wie bei Jamma, wo ich 'n Basemodell hab, was ich dann supereinfach fine tunen kann. Es ist wirklich diese diese 2 Modelle auch nur in dem speziellen MX-F-P-vier-Format. Das heißt, ich kann's auch nicht so supereinfach auf jeder NVIDIA CPU ausführen. Es gibt zwar schon Anstrebungen von Anslauf von anderen, dass die das son bisschen umkonventieren und dass man das einfacher ausführen kann, aber kommt natürlich auch wieder mit Limitierungen. Das heißt, sehr, sehr, ja, kleiner Anwendungsbereich und nur ganz genau spezifisch für das, was sie halt machen wollten. Aber ich mein, das Framework Framework ist sehr interessant und generell, ich glaub, ich mein, mit 'nem Open Modell kann wieder mehr betrieben werden, können Leute wieder bisschen mehr reinschauen, bisschen mehr verstehen, was sie gemacht haben, bisschen weiter testen, bisschen weiter vergleichen. Ich mein, die Architektur ist an sich superinteressant. Es scheint auch superschnell zu sein. Beide halt nur nicht ganz so gut beziehungsweise son bisschen leer wird es beschrieben. Also das Modell kann halt super klaren Text generieren, der aber halt irgendwie gar keinen Sinn macht, außer halt für diese Benchmarks. Also es ist einfach viel 'n bisschen dumm, haben die Leuten Menschen gesagt.
Fabi
Ja, interessant. Danke offenbar noch mal für die Einordnung. Weil Du grade gemeint hast, mit on device und bei Apple wurd's ja auch relativ schnell geleakt. Vielleicht können wir uns noch mal ganz kurz über einen Beitrag unterhalten, der wo son bisschen, zumindest in bei der letzten Investmentkonferenz von Apple, Tim Cook son bisschen hat, durchblicken lassen, dass Apple durchaus bereit ist oder sehr offen ist dafür, Übernahmen im AI Bereich zu machen. Also eigentlich ist ja Apple eher dafür bekannt, kleinere Firmen zu kaufen. Und aber laut Bloomberg ist es wohl so, dass Apple wohl erwog bereits Gebote für Perplexity als auch Myster abzugeben, was ja dann wirklich im höherstelligen Milliardenbereich war. Ich glaub, das letzte Mal und das ist auch gefühlt das einzige Mal, dass ich sie wirklich getan haben, war noch Anfang, ich glaub, 2 12, 2 13, als sie Beats gekauft haben, son bisschen Spotify den Rang abzulaufen, einen Headstart bei Apple Music zu bekommen, weil der Beats auch damals einen eigenen Musikstreamingdienst hatte. Und sonst sind sie eher dafür bekannt, wie gesagt, die die kleineren zu machen. Aber war durchaus schon häufiger mal Thema so mit allen Apple Intelligence Featuren, die sie so rausgebracht haben, sind sie auf jeden Fall hinter Erwartung zurückgeblieben. Neue Siri wurde angekündigt, aber auch schon relativ schnell post point in das kommende Jahr dann. Und zumindest denken Sie jetzt darüber nach, also sehr, sehr spannend, ob da ob da und wieder mal was Großes, 'n großer Kauf von App bekommt. Zumindest die Taschen voll haben Sie auf jeden Fall, weil auch wenn Sie im AI Space hinten dran sind so, dass sie das iPhone Geschäft und generell ihr Verkauf und der Hardware läuft weiterhin supergut und hat sich, glaub ich, wieder 13 Prozent erhöht der Verkauf der iPhones im Vergleich zum letzten Jahr. Das heißt, das Geld haben Sie auf jeden Fall. Mal gucken, ob das ausreicht, in diesem Rennen doch noch mal einen relevanten Platz einzunehmen. Aber interessant, dass Sie da zumindest jetzt haben durchblicken lassen, dass es durchaus passieren kann mit Perplexity und. Auf jeden Fall interessante Player in dem Gebiet, die Sie da überlegen, zu übernehmen. Wahrscheinlich auch wieder im Zuge von, die da auch durchaus eine Rolle spielen kann.
Philipp
Ja, aber ich ich weiß nicht, sowohl Perplexity als auch Mistral sind jetzt nicht ja irgendwie, ich mein, Perplexity kann ich verstehen unter dem Aspekt, hey, vielleicht möchte man einen Safari oder seine eigene Sucheentzündung haben und das son bisschen mehr oder mit dem neuen Comet Browser so integrieren, aber halt jetzt nicht irgendwie Training. Und bei, ich mein, da ist jetzt schon wieder, hab ich die letzten 2 Tage gesehen, 'n bisschen eine Diskussion darüber, ob ihre neuen Modelle nur destilliert von irgendwie Deepseek sind und sie gelogen haben bei dem, was sie haben. Ich mein, das ist nicht das erste Mal. Ich weiß nicht, also
Fabi
Na ja, ob das also ob das ausreicht, das ist auf jeden Fall mehr als diskutabel. Die Frage ist halt, was haben sie sonst für Optionen, welche Firmen sie in dem Space noch kaufen können? Soll ich meinen, Adropic hat wahrscheinlich mittlerweile Größen, die es selbst bei Apple 'n bisschen schwierig machen zu übernehmen.
Philipp
Ich mein, Fate Meta oder Mark Zuckerberg fährt ja auch eine interessante Strategie, ja.
Fabi
Ja, der wird halt natürlich komplett überteilnd, das Ganze zu machen, ne. Aber glaub ich, sind auch generell, aber auch Meta ist an 'nem anderen Stand, was dieses ARRays angeht, auch wenn sie nicht grade ganz vorne mit mitspielen als als Apple da gerade ist. So ist die Frage, reicht es aktuell wirklich nur aus, irgendwie Talent Acquisition zu machen? Also schwierig. Ich wüsste auch nicht, was ich an ihrer Stelle machen würde. Das mindestens aber, dass sie mal erwägen, auch größere Investment zu machen, ist auf jeden Fall interessantes Zeichen. Aber ich geborene dir recht, ob Mistroll jetzt der richtige Move ist, durchaus die Frage. Aber auch spannend, ob Mark Zuckerberg mit seinem, was da jetzt bei rauskommt. Also bisher hat er nur viel Geld für gute Leute ausgegeben. Jetzt müssen sie auch liefern. Mal schauen, wo wir in einem Jahr sind. Ich mein, dass dass das Rennen mal hier wieder so eng beieinander ist, was OpenA-I, in Shopic und Google angeht, hätten wir wahrscheinlich Anfang letzten Jahres auch noch nicht so richtig gedacht, dass sie's dass sie's schaffen, so gut aufzuholen. Mal gucken, was wir in einem Jahr sagen, was dann Apple und Meta machen. Aber auf Apple zu wetten, weiß ich aktuell grad nicht, ob das 'n sinnvolle Wetter ist. Parthema machen wir noch auf der Agenda. Lassen Sie mal kurz eingehen, apropos Google auf Google Deep Minds neues Open World Modell Gene 3. Also bisher kein Modell, was irgendwie ausprobierbar oder testbar ist, aber es die bei Deep Mind eben 'n Blogbeitrag über Gene 3 und die von Gene 3 gibt. Wir hatten ja durchaus das ein oder andere Mal, also damals so die Gene 2 hatten wir auch hier in dem, im Podcast mal besprochen. Zuletzt hatten wir so Open World Modelle auf Basis von Games, wie dann zum Beispiel GTA mal drüber diskutiert, was ja auch zuletzt sehr im im Presse FavorWorld zum ersten Mal auch einen Open World Modell hatten, was nicht nur, indem man's nicht nur bewegen konnte, sondern auch Text als einen weiteren Input geben konnte, die Experience zu verändern. Und Gene 3 schlägt son bisschen in dieselbe Kerber, aber ist noch mal sehr, sehr viel generalistischer als das, was wir zum Beispiel bei diesen Modellen, mit denen auch GTA erzeugt wurde, gesehen haben. Es ist 'n Open World Modell, was was auch funktioniert mit, vielleicht der erste Punkt, mit erstens Realtime Inputs. Realtime, die Inputs können einerseits Navigation sein, andererseits auch Text Inputs, eben bestimmte Events. Sie haben's, glaub ich, irgendwas eventspezifisches genannt, also so World Events war, glaub ich, ihr Begriff. Also was soll als Nächstes in irgendwelchen, was soll als Nächstes passieren, wenn man wenn man sich in sonem Open World Space befindet, eben per Text als Input. Und aber eben sehr viel generalistischer. Und das, was superinteressant ist, dass sie dass sie den Interaktionshorizont sehr viel länger halten können. Also Dinge, die erzeugt werden in der Open World, konnten zum Beispiel bei Geni 2 noch so 10 bis 20 Sekunden konnte sich gemerkt werden, was sozusagen im Kontext war. Also das Beispiel so, Du guckst nach vorne und siehst irgendwie 'n Baum, guckst nach links und wieder nach rechts, ob er dann noch da ist oder nicht. Da waren wir bei 2 noch so bei 10 bis 20 Sekunden und jetzt ist es wirklich so, dass dass das Modell mehrere Minuten lang Kontext halten kann, was auf jeden Fall super-, superbeeindruckend ist, aber auch die Qualität wirklich megabereindrucken ist. Und da glaub ich auch viel, auch selbst noch mal intern, was den Research angeht, so im Agent Research genutzt wird. Also wenn dann irgendwelche beispielsweise wirkliche Roboter sich in der Open World bewegen sollen oder generell in der Welt bewegen sollen, dass es da sehr gut ist, im Endeffekt auch Trainingsdaten zu erzeugen oder die die Steuerung dann eben in diesen Modellen zu trainieren. Aber wirklich super-, superbeeindruckend einfach, was Qualität und so angeht, aber natürlich immer noch weiterhin so die die schwierigen, noch nicht gelösten Probleme ist halt wirklich so, Interaktion von mehreren Agenten in so einem offenen, in so 1 offenen Welt. Ja, auch immer wieder, wenn wir uns über Spiele hier unterhalten und Philipp hat eben gesagt, haltet euch in 8 mitspielen. Bald ist es so weit so, dann diese Open World Modelle das so, glaube ich, da so Interaktion, so Also es ist unfassbar beeindruckend. Schaut's euch gerne mal an, noch nicht ausprobierbar, aber bestimmt möglicherweise bald. Aber sie machen weiterhin Research und immer noch schwierige Probleme sind eben diese Agenteninteraktionen innerhalb 1 ein und demselben offenen Modell. Aber super beeindruckend, was Deep Mind da wieder rausgebracht hat. Ja, ich bin halt gespannt, wo
Philipp
das hingeht im Sinne von Text to Video oder Text to Image. Meistens wenn ich immer oder was Entertainment angeht, das ist halt da, wo ich's am meisten sehe. Klar, wird es noch spannend, irgendwie Kollaboration, Multiplayer, irgendwelche Spiele dann wirklich superschwierig oder wie weit können wir das scalen? Also kannst Du da wirklich über Tage lang dann mehr oder weniger in derselben Welt rumlaufen? Aber alles, was so, ich sag mal, Entertainment oder Content angeht, ist ja supercool, wenn Du da einfach, sag ich mal, mehr oder weniger auf dem Mars rumfahren kannst plötzlich und irgendwelche Fragen stellen und dann mehr oder weniger in in Art VR oder AR Environment dich bewegst und wirklich das anpasst auf das, was dich aktuell interessiert. Darauf bin ich halt supergespannt, weil ich mein, das ist jetzt auch schon 720 p, was ja jetzt keine schlechte Auflösung ist. Und sie haben auch 'n bisschen aufgezeigt, von wo wir kommen mit irgendwie die erste Engine oder der erste Name war Game Nchan, dann letztes Jahr Gene 2, dann hatten wir Veo und jetzt Gene 3. Und die die Erweiterungen waren halt von, hey, 'n paar Sekunden, 10 bis 20 Sekunden in Gene, wie o kann ja 8 Sekunden Video. Und jetzt haben wir mehrere Minuten schon. Bin ich halt gespannt, wo das hingeht, weil es kann ja auch sein, hey, anstatt w o 4 haben wir halt irgendwie bald 4, wo ich meinen Text prompt hab, wo ich dann mein Video mach. Und anstatt, dass ich weiter meinen mach, wo irgendwas im Video passiert, vielleicht beweg ich mich dann auch 'n bisschen so. Also ich bin Ja,
Fabi
und steuert ist möglicherweise, das war ja auch dies eine Agentenbeispiel so, Du erzeugst vielleicht eher eine Szene und sagst gar nicht, Du erzeugst das Video, sondern erzeugst erst mal ein und probierst dann mit prompt, sich in der Szene zu bewegen, eine Art Kameraführung oder so was zu machen, so und sich besser steuern zu können. Ja, also definitiv, das soll doch gar nicht falsch verstanden werden. Das will ich will überhaupt nicht infrage stellen, wie beeindruckend das Ganze ist. Dass es auch jetzt schon, selbst wenn sie das nicht gelöst bekommen sollten mit dem Multi Agenten in einem Modell, glaub ich, gibt es schon unfassbar viele Anwendungsfälle dafür, wenn man das Ganze in diese Richtung einfach weiterentwickelt. Also ich grad, glaube grad so dieses Kontexthalten über mehrere Minuten ist auf jeden Fall 'n super-, superinteressanter Schritt. Und eben auch dieser dieser ganze Realtime Partner, also wie dass dass einfach dieses dieses Modell alle Frames eben Realtime Realtime erzeugt, ist wirklich super-, superbeeindruckend.
Philipp
Aber noch keine keinen Sound. Ich bin mal gespannt. Vielleicht Gene 4 dann mit Sound wie von Veo. Dann wird's dann, ich glaub, dann wird's roselig, wenn man sich die Dinge dran anschaut.
Fabi
Ja, das stimmt. 'N paar Themen haben wir noch. Wir können Sie ja vielleicht 'n bisschen kürzer halten für angefangen mit dem China AI Action Plan. Wir hatten ja schon den American AI Action Plan, wo ja wir auch uns durchaus drüber unterhalten haben, dass Trumps Ziel unter anderem davon ja auf jeden Fall war, USA da auf jeden Fall eine Vormachtstellung zu bringen und auch ganz klar, dass er eine kompetitive Ansage war. Und jetzt auf der AI World Conference wurde von dem chinesischen Premierminister eben dieser China China AI Action Plan vorgestellt, der umfasst 12 Punkte. Die würden wir jetzt gar nicht alle ganz im Detail durchgehen, aber grundsätzlich find ich's eigentlich nur noch mal interessant von son bisschen der dem dem der der Tonalität von diesem AI Action Plan von China, dass es da eben Kollaboration geht, offene Zusammenarbeit, eher globale eine globale Infrastruktur oder 'n globales Komitee aufzusetzen, eben AI nicht isoliert in bestimmten Branchen, in oder in für ein paar in ein paar großen Unternehmen oder in einem in einem Land zu entwickeln, sondern dass es da eigentlich eher einen offenen Austausch geht so. Ich mein, natürlich, also immer erst mal sehr interessant, in welcher Welt wir uns grade befinden, dass dieser Ton eher von China angeschlagen wird und nicht von den USA und man China jetzt son bisschen in der Rolle sieht. Natürlich muss man aber trotzdem sagen, dass so grade was Infrastruktur, die Views und so was angeht, so China natürlich auch aktuell noch auf andere Player angewiesen ist und zumindest auf 'n mit auf eine offene Zusammenarbeit angewiesen sind, auch einfach, was auch das geldliche Investment angeht. So China investiert unfassbar viel, trotzdem sind die USA noch jetzt, glaub ich, grad 2024 mindestens Faktor 10, was die, ich glaub, über 100 100 100000000100 Billionen, die sie investiert haben im letzten Jahr. Und da sind sie auf jeden Fall noch 'n bisschen hinten dran, ob wir trotzdem mit Modellen wie DeepSP und so weiter gesehen haben, was sie schon in der Lage sind mit dem, was sie da zur Verfügung haben, erstellen können. Aber wie gesagt, die Tonalität ist auf jeden Fall sehr interessant, sich das neu ganz noch mal anzuschauen, irgendwie interessant, in welcher Welt wir uns da grade befinden. Ansonsten noch eigentlich nur der Vollständigkeit halber, weil wir's ja häufiger mal son bisschen hatten zuletzt ja auch im letzten Podcast über AI Codingtools, die komplette Applikationen für einen Vibe coden sollen in den ganzen Spaceets Jetbrains auch eingestiegen mit Kineto, sieht auf jeden Fall vielversprechend aus, so ist bisher noch in 'ner Open Beta, in der man sich eintragen kann, also Early Access Programm. Aber so die ersten Videos und ich mein, Jet Brain ist ja durchaus bekannt für sehr gute Produkte, werden auch noch 'n bisschen aus meiner Sicht hinten dran im gesamten AI Space, zumindest was die IDS angeht. Mal schauen, Philipp guckt schon son bisschen so, ich glaub, Du bist kein Fan von Jet Brain Produkten. Da wird mit dem Kopf gewackelt. Du bist Du bist, wie es coaten könnte.
Philipp
Bunny Javaentwickler.
Fabi
Ja, also ich muss auch sagen, im Webumfeld hab ich's auch nicht benutzt. Trotzdem, sie machen einige Sachen schon sehr gut, jetzt grade im C-SchARP Umfeld mit Entwicklung, so, was Sie da haben mit mit find ich auf jeden Fall gut. Und ich hab immer geliebt, das war fast 'n Grund für mich immer mal wieder die J-Is IDs aufzumachen, waren ihre Tools so. Also ich hab zeitweise, obwohl ich 'n w s code w s code gearbeitet hab, hab ich Webstome aufgemacht, nur das Merge Tool von Jeff Brentson. Und dann hab ich immer gehofft, mach das doch mal als als Standalone Tool, sodass ich dafür nicht die IDI aufmachen muss. Aber sie sind schon, sie sind schon eine sehr sophisticated IDI. Aber
Philipp
Wissen wir, ob Kineto eher für, sag ich mal, einfache Webpages und Landingpages ist oder wirklich für Apps?
Fabi
Also ich finde, so wie sie's liest, ist es irgendwas zwischendrin so. Also sie sagen so, nutzt auf jeden Fall für deine Projekte, aber alles, was sie irgendwie als als Beispiel bringen, ist son, wirkt son bisschen wie, also die Beispiele, die sie genannt haben, sind son bisschen Use Cases im für den für den Alltag so. Also so, keine Ahnung, wenn Du
Philipp
Ja, ist 'n bisschen webflow mäßig.
Fabi
Ja, genau. Also es wirkt jetzt nicht an den Beispielen, ja, dass Du ultrakomplexe Apps damit machst so, aber sie sagen so, wenn's, sei es der Familienbudgetplaner oder eine Portfoliowebseite oder die nächste große App so. Also, aber das nur als so, aber die ersten expliziten Beispiel wirken so wie sehr abgespeckter Use Case so. Ja, und ich
Philipp
Was ich interessant find, Sie schreiben, dass der, dass das Erstellen des Prototypen ungefähr 20 Minuten dauert, Was schon sehr lange ist, wenn man das vergleicht mit v zero oder Loveable oder anderen, wo ich nach, keine Ahnung, 60 Sekunden eventuell den ersten drauf hab.
Fabi
Das stimmt, ja. Ja, aber wie gesagt, auch ausprobiert keiner von uns bisher. Bin gespannt. Ich mein, Philipp zweifelt an der Qualität.
Philipp
Ja, ich weiß nicht. Also es ist wahrscheinlich, ah, okay, sie schreiben. Ja, stimmt. Also nicht mal bei Cloud bisher ist ja alles, was irgendwie, sag ich mal, App angeht, ganz oft immer verschiedene Cloud Modelle oder Gemini zwischendrin mal. Selbst GitHub. Genau, Deswegen frag ich mich immer, wie wie sich sich voneinander abheben wollen, wenn alle dasselbe Modell mehr oder weniger darunter nutzen. Ja, also
Fabi
zweifel ich daran, dass es ein großer Player in dem Space wird? Höchstwahrscheinlich ja. Wird es eine gute Alternative, wenn man sich im Jetbrands Oko System befindet? Könnte auch sein ja. Wäre jetzt meine
Philipp
Aber was man sagen kann, was cool ist oder was cool aussieht, man kann, man hat diese Mix zwischen, man kann machen via Chat, also Chatprompt oder auch direkt mit, also draufklicken, Text ändern, Farbe ändern, was ja schon sehr cool ist. Wenn man, sag ich gerade mal, son so Webseiten baut und sagt, hey, okay, ich möchte die Schrift ändern oder die Farbe ändern oder irgendwie so was, dass ich nicht direkt prompen muss, sondern okay, ich mag das grün nicht, ich mag's blau machen oder irgendwie so was. Da hab ich auch sone Art UI Editor oder 'n No Code Editor mehr oder weniger.
Fabi
Ja, ja, coole coole Seitennotiz dazu noch mal. Wir haben noch 2 Themen rund Gwen und zwar neues Modell mit Gwen Image.
Philipp
Ja, und zwar Gwen hat ein 20000000000 Parameter Text to Image Modell released, welches Sota für Text Renderings sein soll. Also wir kennen ja mittlerweile von oder, dass man oder dass KI Modelle mittlerweile sehr, sehr gut Bilder generieren können mit sehr, sehr gutem Text darauf. Und soll genauso gut wie Open AI GPT4 o sein, was Text Rendering of Bildern angeht und führend für chinesischen Text. Es ist multilingual, das heißt, man kann Deutsch oder Englisch auch, sag ich mal, generieren. Und es nutzt eine m m die IT Architektur, also selbst wahrscheinlich relativ ähnlich zu den anderen Modellen, genau, verfügbar. Es gibt auch 'n Breakground zum Testen, richtig coole Beispiele. Also ist nicht nur irgendwie Text Rendering, sondern auch, sag ich mal, animierte Videos gezeichnet. Also ich würd stark davon ausgehen, dass das aktuell mit das beste Imagegenerierungsmodelle ist, zusammen mit halt. Wenn ihr da irgendwie was macht, schaut mal rein. Es ist echt cool, vor allem, wenn man irgendwelche, ja, sag ich mal, Visualisierungen macht mit Text vor allem darauf.
Fabi
Ja, cool. Wenn wir grad bei Quinn sind, dann können wir vielleicht noch über Cerebras Code unterhalten, weil sie auch, apropos Gwen nämlich Code als Modell. Vielleicht erzähl's noch mal kurz, was Cerebras ist für die, die's da draußen nicht wissen, haben wir's noch nicht so häufig gehabt hier im Podcast und dann
Philipp
Genau, also Cerebras ist ein Start-up, was einen speziellen AI Chip erstellt für AI Inflorenz, welcher sehr, sehr schnell ist. Also Serebras und Crox sind, sag ich mal, so die großen 2 Start ups aus den USA, die man häufiger hört, die jetzt auch im Influencer Bereich sehr aktiv sind. Und Serebras hat ein, ja, so ähnlich wie Claude Max vorgestellt. Also man hat ja Cloud Code und es gibt Claude Max für 200 Dollar im Monat, wo man dann, sag ich mal, einfach vielleicht viel hat und Cloud halten nutzen kann zum generieren. Und vor 2 Wochen, 3 Wochen hat Quen oder Alibaba Quen Dray Koda vorgestellt mit der Quen Coda Sealy, welcher in Fork von der Gemini Sealy war. Und Cerepras hat jetzt sozusagen das Alternativprodukt zu Clayd Code mit Clayd Max released, Cerepras Code Pro und Code Max, welches Quen 3 Coder nutzt. Und der große Unterschied durch den Custom Silicon, den sie halt einfach haben, ist, dass sie Quen 3 mit 2000 Tokens die Sekunde bereitstellen. Das heißt, man hat nicht dieses lange warten, bis irgend 'n Code generiert ist, sondern es fühlt sich wirklich wie instant an. Und erreicht auch 69.6 Prozent auf s wie I bench verified. Also ist so gut wie. Und ja, also wenn euch das interessiert oder ihr das mal testen wollt, vor allem wie sich so 2000 Tokens die Sekunde anführen, dann gerne mal reinschauen. Die Limits sind für den 50 Dollar Plan im Monat 24000000 Tokens pro Tag. Sie sagen 3 bis 4 Stunden auf von ununterbrochenes. Und für den 200 Dollar Plan sind es 120000000 Token am Tag. Da schreiben sie nicht dazu, aber wenn man, 24 mal 3 ungefähr, das heißt, ich kann mehr oder weniger den ganzen Tag eigentlich nur, irgendwas zu coden. Sie haben auch 'n ein Video, das sieht, also ich find's schon crazy, wie schnell 2000 Tokens mehr oder weniger sind.
Fabi
Hast Du, ich hab mich grad gefragt, hast Du irgend eine Vorstellung von, wenn wir jetzt, wenn's mit den Cloudsonet oder so was vergleichbar? Wie viel
Philipp
Warte mal. Token pro
Fabi
Sekunde sind bitte? Ich hab das
Philipp
Ja, also man kann auf kann man das nachschauen. Da dürfte es,
Fabi
ich glaub Ich hab irgendwas grade von zu 70 Tokens pro Sekunde, oder?
Philipp
Ja, das kann ungefähr sein da. Also ja, also Germanite 2 Punkt 5 Flash hat die 304 Tokens aktuell und claude 4 57.
Fabi
Krass. Ja, da ist 2000 ja
Philipp
20000 was. Also es ist wahrscheinlich Max 20000, wahrscheinlich nicht, wenn große Last
Fabi
oder so
Philipp
was ist, also. Ja. Ist auf jeden Fall, fühlt sich son bisschen wie instant an.
Fabi
Ja, also die, aber Du hast grad, ich jetzt, wenn man zu gegenseitig, glaub ich, für 2000 Tokens pro Sekunde
Philipp
Ja, 2000 Tokens pro Sekunde maximal. Aber ich geh stark davon aus, wenn halt irgendwie mehr Last ist, dass es vielleicht mal 1000 Tokens die Sekunde nur oder so was sind.
Fabi
Ja, interessant. Müsste ich mal wieder einen Plan für 50 Dollar daraus ausprobieren.
Philipp
Ja. Ey, ich mein, wenn man wirklich, also 12000000, nee, was haben Sie gesagt, 24000000 Tokens, ist schon viel am Tag. Also wenn ich das wirklich jeden Tag nutz. Und wenn ich Vor
Fabi
allem, wenn's wirklich die bei der Geschwindigkeit, so ich mein, ist ja auch 'n Produktivitätsboost, also wär schon, das fand man mal auszuprobieren. Genau. Ja, cool. Wir sind schon sehr, spiel in der Zeit. Lasst das letzte Thema gern noch mal kurz abhandeln und zwar Qhier Command Avision. Was hat's damit auf sich?
Philipp
Ja, superschnell. Qhier hat 'n neues Multimodal Modell released Text, Image Input, so ähnlich wie ihre bisherigen Modelle. Open, aber heißt, Sie können's testen und dann über q hier nutzen oder eine Lizenz mit denen abschließen. Nichts Spektakuläres, kein Reasoning Modell, ist multimodal, hatten nur einen Kontext von 32000 Token. Aber wie bei den bisherigen Modellen haben sie oder sagen sie, dass sie 'n Fokus auf Enterprise Anwendungen haben, also vor allem das Analysieren und Verstehen von PDFs mit Diagrammen, mit Visual Data oder auch Slides. Sie haben einen paar Benchmarks, vergleichen's mit Lama 4, GPT 4 1 und 3, also nicht irgendwie mit Quellen oder Gemini. Was sie schreiben, ist sehr gut. Wenn ihr irgendwie PDF Enterprise Use Cases habt, dann definitiv mal reinschauen oder testen. Das gibt's auch als API zur Verfügung. Ja.
Fabi
Ja, cool. Das waren doch mal wieder ein paar Themen so zur Mitte des Jahres. Wir hören uns genau in der Runde in, das stimmt noch gar nicht, in beim nächsten Mal wieder mit dem Dennis zurück ausm Urlaub, also wieder mal zu dritt in 2 Wochen hier wieder. Euch immer vielen Dank fürs Zuhören. Gebt uns immer gerne Feedback an Podcast, ihr Programmieren Punkt Baalpo oder über unseren Discord Channel. Und genau Philipp, wenn's in 2 Wochen dank dir.
Philipp
Tschau.
Fabi
Macht's gut.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback