News 24/23 –

Google Bard // OpenAI // Million.js // Google Remote vs. Home Office

14.06.2023

Shownotes

Knappe News in dieser Woche:

/transkript/programmierbar/news-24-23-google-bard-openai-million-js-google-remote-vs-home-office
Hallo und herzlich willkommen zu einer neuen Programmierbar News Folge 24 23. Wir haben dabei den Fabi Hallo. Den Jojo und den Danny. Hi, ich bin Dennis. Wir freuen euch heute wieder ein paar Updates zu geben. Unter anderem wir hatten zwar letzte Woche ein AI Special und gucken ja mal, ob wir jetzt die AI News etablieren. Trotzdem, weil es nicht so viel anderes gab und es einfach so viel AI News gibt, dass wir sie gar nicht in andere Folge gepackt bekommen. Da gibt es auch heute ein bisschen was in die Richtung, aber wir haben auch andere Sachen. Also einmal ein Update zuGoogle Barth. Dann haben wir Open AI, hat einige Änderungen an den APIs oder an den Modellen vorgenommen. Es gibt etwas, das nennt sich Million. Js, allein schon Bling Bling vom Namen her und sieh mal mit einem Meta Thema zu Remote Work und Google. Ich bin gespannt. Ganz kurz am Anfang möchte ich noch den Hinweis erlauben, auch wenn es nur die erwischt, die heute und morgen den Podcast noch hören. 16. Quatsch, 15. Juni. Morgen ist wieder Meetup bei uns im Büro. Quick und SolidJS die Zukunft der Webentwicklung. Das Thema mit Fabian Hiller. Dazu wird es auch eine Podcast Aufnahme geben, die in vermutlich drei Wochen rauskommt. Aber genau ihr seid herzlich eingeladen. Bad Neuheim, wenn ihr aus der Rhein Main Region kommt, kommt gerne her. Es gibt Drinks, Schnacks. Und gute Laune. Gute Laune. Und viele gute Gespräche. Viele Leute, die lustig sind und man sich noch gut unterhalten kann. So, du kommst heute als letztes SGB. Kannst du dich schon mal darauf vorbereiten? Sehr gut. Und wir fangen. Dann guten Tag. Fangen wir an mit Jojo, Open AI News. Genau. Es gab jetzt gestern, vorgestern. Auf jeden Fall ist es auf jeden Fall noch recht frisch, dass es einige Updates zu Gpt gibt. Also es sind eigentlich zwei Sachen, die man da vor allem herausstellen kann. Zum einen ist es so, dass eben das Gpt 35 Turbo Modell günstiger geworden ist. Also das haben sie 25% reduziert statt 0,000, 0,00, 0,02 Cent, Dollar Cent, irgendwie pro Token, 1.000 Tokens kostet es jetzt 0,0015, also 25% Reduzierung. Und was sie eben auch eingeführt haben, es gibt ein neues Modell, bei dem es jetzt einen größeren Kontext gibt. Also bisher war es ja beimGPT 3.5 Modell so, dass man eben nur 4.000 Tokens zur Verfügung hatte, sein Windows, den Kontext zu beschreiben. Das waren ungefähr 3.000 Wörter und jetzt haben sie eben die Möglichkeit geschaffen, das ist ein neues Modell. Es gibt eben auch das GPT 3.5 16K Modell, was es eben erlaubt, dann 16.000 Tokens zu übergeben. Fabi, wir hatten, glaube ich, mal irgendwann darüber nachgedacht, ob wir AI unsere Shownotes schreiben lassen von den Folgen und haben gesagt okay, wenn wir sie gut transcribe bekommen, ist der eine Part, aber aktuell sind die Modelle noch zu klein. Meinst du mit 16K würden wir hinkommen? Du hattest es irgendwie ausgerechnet? Ich glaube, wir waren bei einer Folge, die so ungefähr bei einer Stunde war, knapp über 16 … Also wir waren irgendwas bei 18.000 Tokens oder so was. Also ich glaube, wir bräuchten irgendwie das GBTV, gibt es ja, soll der irgendwas sein, 32.364? Also auf jeden Fall gibt es jetzt genau das hast du jetzt schon vorweggegriffen. Also für GPT4 gibt es nämlich auch eine neue Alternative. Auch da ist es ein bisschen günstiger geworden, aber es gibt auch eine 32.000 Tokens Variante. Genau, weil 16.000 gab es die ganze Zeit. Und ich konnte mit GPT4 es nicht machen. Das war der Punkt. Gpt4 hatte bisher standardmäßig die 16K und jetzt haben sie eben noch mal, sagen wir das verdoppelt in dem Zuge. Und das. Ist schon als. Api verfügbar? Das ist als API verfügbar. Das kann, also GPT4 ist glaube ich so, dass sie gesagt haben, sie wollen das jetzt weiter rausbringen und die Warteliste verkürzen. Es ist noch nicht wirklich als API verfügbar, soll jetzt aber sehr zügig gehen, dass letztendlich die Warteliste eliminiert wird. Und sie wollen auch jetzt mehr Leute in diese Warteliste aufnehmen in den nächsten Wochen. Aber ist wohl noch ein stetiger Prozess, dass das geöffnet wird für die Öffentlichkeit und dass jeder nutzen kann. Genau das ist die eine Neuerung. Und sie haben gesagt, ungefähr auch mit diesen 16.000 Tokens kann man ungefähr 700 Pages... Ah ne, 700 Pages per Dollar. Also das ist einfach nur das, was das günstige geworden ist. Ich dachte, das wäre eben der Kontext. Aber ich glaube, ich habe mal geschrieben, wie 20 Seiten auch irgendwie darstellen könnte, wenn man das in einer gewissen Formatierung hat. Also dass man dann schon wirklich sehr viel Kontext übergeben kann und dass auch für viele Use Cases, die halt jetzt gerade limitiert waren, eben jetzt das GPT 3.5 Modell dann eben ausreicht. Und es ist in dem Zuge ein bisschen teurer, dieses Größenmodell zu benutzen. Also ich hatte eben gesagt, das ist 0,015 Cent, also diese 25%, die ist günstigerworden ist. Und dieses 16K Modell kostet dann eben 0,003 Cent. Also es ist eben doppelt so teuer, bietet aber einen vielfachen Kontext, also immer noch verhältnismäßig günstig. Was sie auch eigentlich … Was? Wie hast du das gesagt? Nein. Aber du kriegst mehr für das. Ist Geld. Na ja, du bezahlst ja vom Token. Also erst mal kriegst du nicht mehr. Du kannst mehr Geld ausgeben. Also es ist eigentlich nur doppelt so teuer. Ja, hast du recht. Stimmt, es geht ja nicht auf die Gesamtkosten. Es ist immer noch letztendlich auf die 1K Token bezogen und nicht auf den Gesamtkontext. Du hast völlig recht. Ja, das weitere, was sie eingeführt haben, ist eben auch, dass sie Function Coding jetzt irgendwie besser integriert haben. Bei Function Coding geht es eben darum, dass es jetzt eine neue Möglichkeit gibt, weil jetzt natürlich immer mehr externe APIs angebunden werden. Da gibt es natürlich etliche Plugins, die das schon unter der Haube für JET machen, aber natürlich auch für irgendwelche eigene Modelle natürlich diese Funktion ein bisschen mehr nutzen möchte. Gerade wenn ich irgendwas mit Lean gebaut habe und gesagt habe, ich kommuniziere im Hintergrund mit JGPT. Ich möchte aber auch bei bestimmten Ausdrücken eigentlich dann eine externe Funktion ansprechen und das soll mir das Model irgendwie sagen. Und dafür gibt es jetzt eben die Möglichkeit mit dieser Function Coding API. Und was ich bei einer Function Coding API machen kann, es gibt jetzt zwei neue Parameter an dem Complizions Endpunkt, also ob ich das irgendwie per Code oder natürlich einfach so per REST direkt aufrufe, wo ich eben halt meine Function Definitions übergeben kann. Eine Function Definition ist einfach etwas, was sich im Json Schema definieren und wo ich sagen kann Okay, ich habe eine Funktion, die hat einen gewissen Namen. Das heißt zum Beispiel als Beispiel haben Sie uns angefragt GetCurrentWetter und ich gebe dann einfach so eine Plain Text Beschreibung rein get the Current Wetter for a different Location. Das ist sozusagen das, was das Model dann nutzt. Und das ist das, wie die neuen Modelle eben optimiert wurden. Die verstehen einfach dieses Format, weil eigentlich was passiert ist letztendlich, dass diese Funktionsbeschreibung in diesem Json Schema einfach mit in den Kontext übergeben wird und es einfach ein optimiertes Modell ist, was halt diese Funktionsbeschreibung interpretieren kann. Aber aus dieser Description dieser Funktionsbeschreibung zieht er sich sozusagen dann natürlich mit seinen Möglichkeiten, menschliche Sprache zu interpretieren halt einfach als Body etwas, was er dann, was der Benutzer dann später so in den Funktionen, also in dem Kontext so aufrufen kann. Also er nutzt das wirklich als als Template, zu sagen okay, wenn ich so was ähnliches dann später irgendwie in dem Eingabe Text des Benutzers sehe, heißt es für mich Hey, ich möchte eigentlich diese Funktion aufrufen. Und was an der Stelle eben dann noch passiert, dass man eben da eine Liste von Parametern übergeben kann, wo man zum Beispiel sagt, jetzt für dieses Beispiel mit dem Current Wetter, es gibt so was wie eine Location, das ist vom Typ String, das stellt dann letztlich in der Beschreibung, kann ich dann wieder beschreiben, was es eigentlich darstellt, also City oder State, zum Beispiel San Francisco, was er dann wieder als Referenz nehmen kann, zu sagen, das, was ich als Beispiel Text vielleicht bekommen habe, das kann ich dann entsprechend interpretieren. Und ich weiß letztendlich, welchen Teil ich des Ausdrucks, den ich von dem Benutzer sehe, als Parameter interpretieren muss. Und zum Beispiel einen zweiten Parameter angeben, wo ich dann auch sagen kann, im Json Schema gibt es auch die Möglichkeit, dass ich halt komplette Enumeration übergebe. Was soll die Einheit letztendlich dieser Anfrage sein? Und was letztendlich dieses Modell dann macht, wenn ich dann ihm einen String gebe und er diese Funktionsdefinition gegeben hat, gibt er mir dann eine Antwort, wo er sagt hier als Ausgabetyp, ich habe einen Funktionsaufruf letztendlich entdeckt in deinen Eingabedaten. Und er passt letztendlich die Informationen, die er in diesem Plain Text hat, in dieses Format, was er letztendlich aus dieser Funktionsbeschreibung, die ich ihm geben kann, interpretiert oder erwartet, wie die Parameter dann sind. Das heißt, ich kriege zurück eine Liste von einem Json Objekt, wo alle Parameter, die für diese Funktion definiert sind, aus diesem Text Element rausgezogen werde, was ich dann natürlich wieder in meinem eigenen Code nutzen kann, zu sagen Hey, ich habe jetzt diese Parameter aufgedrückt bekommen, ich rufe damit meine externe API einfach auf, übergibt letztendlich die Parameter und ich kann an der Stelle auch sagen Okay, ich möchte dann die Daten, die ich zurückbekommen habe, ihm auch das noch übergeben, sodass er letztendlich daraus wirklich eine vollständige Antwort bauen kann. Also ich habe dann eben zwei Möglichkeiten, wie ich zurückgehe. Und es ist eben so, dass ich zum Beispiel dann einfach in meinem nächsten API Call sage, ich habe erst mal den initialen String, der übernützt übergeben hat, dann habe ich eben wie als Role Assistent eben einen Function Call, wo ich eben die Current Wetter Methode mit den entsprechenden Parametern aufgebe. Und dann gibt es eine neue Rolle, die jetzt eingeführt hat, die sich Function nennt. Und Function ist genau das, wo ich dann letztendlich das Ergebnis dieser Current Wetter Methode eben dann zurückgeben kann und da zum Beispiel einfach strukturierte Json Daten rein packe. Und er kann einfach aus dem Kontext und den Funktionsparametern vorher erkennen Ach, wahrscheinlich ist das die Information, die ich benötige, diese Antwort zu geben. Aber damit wollen sie halt eine Möglichkeit schaffen, halt externe APIs einfacher in Apps zu integrieren und da eben das Sprachmodell einfach dieses eventuell aufwende Parsen der Textblöcke zu übernehmen zu lassen. Was ich richtig cool finde, ich habe es noch nicht ausprobiert, aber auf jeden Fall etwas, was ich gerne mal ausprobieren möchte, wie gut das funktioniert und was sie natürlich dazu schreiben. Es kann natürlich passieren, dass dort ungültige Ausdrücke zurückkommen von der externen API, die vielleicht auch irgendwie versuchen, den Kontext zu komplementieren oder irgendwas zu machen. Man sollte dort, wenn man irgendwelche Aktionen anstößt, die wirklich Daten in Echtzeit, also echte Daten verändern, dass man dann halt noch mal einen User Prompt davor stellt, ist das genau das, was du verändern möchtest? Also da nicht davon ausgehen, wenn man jetzt eben diese API anspricht und das zurückgibt, dass das alles valide Daten sind, sondern dass man da auch ein bisschen vorsichtig sein sollte. Das wollen sie in Zukunft verbessern, dass solche Sachen auch erkannt werden. Aber momentan sollte man das händisch so ein bisschen absichern, einfach sicherzugehen, dass da nichts Ungewünschtes passiert an der Stelle. Ja, coole Sache. Also ich finde es spannend, wie das mit den Zeiten dann ist, weil die Latenz sich ja dann verdreifacht von der Anfrage. Das muss man natürlich berücksichtigen. Hoffentlich ist natürlich die externe API dann nicht so langsam. Also man kann natürlich nicht nur externe APIs ansprechen, die anderen beiden Beispiele, die sie auch gebracht haben. Man kann natürlich genauso, wenn man ein eigenes Datenbanksystem angebunden hat, sich dann Queries generieren lassen oder ähnliches oder eben auch strukturierte Daten durchsuchen lassen. Das sind drei der Optionen. Hauptsächlich ist es wahrscheinlich für die Kommunikation mit externen APIs gedacht. Aber natürlich kann man auch irgendwelche internen Systeme anbinden, die man seiner eigenen Applikation dann eben vertragen möchte. Und warum muss man da überhaupt selbst was machen? Und Chetchy BIT kann sich das nicht einfach selbst alles zusammenbauen. Dann müsste eigentlich nur eine API Dokumentation hinschicken und dann fertig. Ich glaube, das ist halt so ein bisschen das Problem. Du musst halt in irgendeiner Form natürlich halt Chetchy BIT mitteilen. Wie sieht eigentlich die API aus, die mit der du. Kommunizieren musst. Aber wenn du eine gute dokumentierte hast, sollte das. Eigentlich reichen. Ja, also da geht es eher darum, weißt du, du hast da irgendwelche internen Anbindungen und da hast du irgendwie keine Dokumentation für. Und klar, eigentlich hast du natürlich recht, sollte es vielleicht noch weiterführen können, das irgendwie aufzuschmissen. Aber gerade wo das nicht möglich ist, bietet das hat eine Möglichkeit, so eine formelle Beschreibung über dieser Schnittstelle zu definieren und ihm zu sagen Hey, das ist eigentlich etwas, was du interpretieren musst und was du mir dann einfach so als Inhalt übergibst, mit dem ich dann einfach in meiner Applikation weiter arbeiten kann. In dem Compilation API Request kann ich da nur eine Funktion definieren oder viele? Du kannst, das ist eine Liste. Also du kannst natürlich eine Liste definieren. Aber was ich ja vorhin gesagt hatte, es geht halt mit in den Kontext. Das heißt, je mehr Funktionen du definierst, desto größer wird auch der Kontext. Und dann muss man irgendwie gucken, dass man es limitiert oder auch natürlich Beschreibung von irgendwelchen Parametern irgendwie limitiert. Also vielleicht braucht man dafür natürlich dann auch das größere Modell, was einfach einen größeren Kontext hat, so was zu unterstützen. Und was immer ein bisschen nerviger wird in diesem ganzen Umfeld, ganz am Anfang haben die was enabled und immer sofort public gemacht. Mittlerweile gibt es eigentlich überall irgendwelche White Lists und ich meine Plugins gibt es seit Ewigkeiten, man konnte sie noch nicht nutzen. Das ist wahrscheinlich jetzt hier sehr ähnlich, dass wir uns erst mal nicht User Facing sieht, aber mit einer White List dafür entwickeln können. Fabi, machen wir weiter mit Million. Js. Million. Js. Genau, ist was aus dem React Umfeld. Ist jetzt nichts, was jetzt gerade erst releast wurde, aber ich glaube jetzt gerade so ein bisschen Bekanntheit erlangt hat, weil FireShip, der YouTube Kanal 1, ein Video darüber gedreht hat und dadurch wird es ein bisschen bekannter. Aber ich finde es auf jeden Fall sehr interessant, weil es claimt, dass es 70 Prozent schneller ist als React und aber ein Framework, also wenn du drauf gehst, make React 70 Prozent faster, ist der eine interessante Teil daran und der andere interessante Teil daran ist, dass es ein High School Student geschrieben hat. Sag mal High School Student, jemand der auf der High School ist, hat es geschrieben und geht sozusagen den Virtual Dom. Irgendwie ist es ja generell so, dass dieDass der Virtual Dom wird ja von vielen gesagt nur Overhead ist. Viele Frameworks, die überhaupt kein Virtual Dom nutzen, React ja den Virtual Dom mit geprägt oder sogar erfunden hat. Und Million. Js genau da ansetzt. Also es ist eine andere Implementierung des Virtual Doms. Und grundsätzlich funktioniert der Virtual Dom ja eigentlich so. Es gibt den wirklichen HTML Dom und der Virtual Dom ist eine Repräsentation davon in JavaScript, was sozusagen einfach alle Dom Elemente vorhält und wenn das reaktive Framework Veränderungen am Dom vornimmt, wird es immer zuerst am virtuellen Dom gemacht. Dann wird jeder Dom sozusagen verglichen, wird geguckt, okay, gab es eine Veränderung? Wenn ja, wird er geupdatet. Und Million. Js vergleicht im Endeffekt nicht mehr wirklich den Dom Baum. Der Virtual Dom ist eine, also ich glaube er beschreibt es, also er nennt den Virtual Dom erst mal Block Virtual Dom und es gibt eine eine Map, die er nennt. Moment, wo habe ich es denn hier? Ich habe vergessen, wie er sie nennt, Update Map oder so was. Und was er im Endeffekt macht ist, es gibt einen Compiler, der mit Million. Js mitkommt und der den Code zur Compilezeit anguckt und einfach guckt, welche Dom Elemente haben ein dynamisches Element und merkt sich sozusagen diese dynamischen Elemente. Und dann gibt es eine Komponente von Million. Js, mit der man sozusagen dann einfach eine React Komponente rappt. Da sagt man einfach, also die React Komponente wird einfach in einer Blockfunktion gerappt und dann weiß sozusagen okay, Million. Js alles klar. Bei diesem Teil wird nicht der virtuelle Dom von React genutzt, sondern dieser Block Dom den Million. Js mitgibt. Und im Endeffekt ist. Also er sagt auch selbst, dass Million. Js nicht in jedem Fall, also in diesen ganzen Benchmarks auf jeden Fall Million. Js eine ganze Ecke schneller, auch nicht nur schneller, 70% schneller als React, sondern auch im Vergleich zu Solid. Js oder so was alles dann auch da wirklich schneller, was das Rennen angeht, aber eben nicht die absolute Silber Bullet. Weil es schaut sich ja sozusagen im Endeffekt, also man kann sich so vorstellen, dass ist eine React Komponente und darin gibt es irgendwie dynamische Teile, die auch bei React mit geschweiften Klammern identifiziert werden. Und Million. Js merkt sich eben nur diese Teile und alle Dom Nodes, die nichts Reaktives haben, die merkt sich Millionns auch gar nicht, weil er davon ausgeht, okay, das wird sich eh nicht verändern, weil nichts Reaktives da drin ist. Das heißt, es ist halt super performant für beispielsweise Komponenten, wo du super Use Case ist, wo du super viele statische Domelemente einfach drin hast, die sich gar nicht gar nicht verändern und nur wenige Reaktive hast. So, da spielt MillinjS auf jeden Fall den größten Vorteil aus, weil es eben nur diese dynamischen Parts merken muss, aber hat sogar manchmal sogar Nachteile. Wenn du dir zum Beispiel vorstellst, du hast einen Dom Node irgendwie keine Ahnung, einfach nur irgendein Div, in dem sich irgendwie. Du. Fünf reaktive Elemente hintereinander Chains, also irgendwie A plus B plus C und mehr reaktive Elemente in dem Dom Element gibt, als es Dom Elemente gibt, dann funktioniert es rein theoretisch sogar schlechter. Aber es spielt super groß und es ist super einfach zu benutzen. Man schreibt einfach eine Block dran, bindet Million. Js ein, ist halt ein Compiler Step. Aber auf jeden Fall sehr interessant. Gerade das auch von einem High School Studenten geschrieben wurde und auf jeden Fall auch ich glaube von ihm, also Aiden Bay heißt er, von ihm wird man noch häufiger was hören. Er findet auch eine super coole Portfolio Website der Aiden Bay. Er hat jetzt irgendwie... Also ich glaube vor einem Jahr hat er das rausgebracht und jetzt, als das Feiership Video kam, hat er auch noch mal so ein Introduction 2 Million Jazz YouTube Video gemacht, wo du schon denkst okay, das hat er auch gemacht, weil das ist so ein bisschen auf jeden Fall, das könnte auch ein Apple Promo Video sein. Also ich glaube das coolste Framework Promo Video, was ich bisher so gesehen habe und er ist auf jeden Fall Core Mähntrainer, kann man auch mal in die Shownotes packen. Es gibt verschiedene, das ist Introducing Million JS. Vor 13 Tagen hat er das releast. Auf jeden Fall ganz cool. So irgendwie haben wir uns immer so junge Typen. Wie kommen die schon dazu, irgendwie so was zu schreiben? Sound das Einbinden geht einfach über nur diese eine Blockfunktion oder Annotation. Was ist das? Eine Funktion, die du dann brauchst? Funktion, ja, genau. Genau. Also so, ich meine, ich habe es natürlich nicht ausprobiert. Wir sind jetzt auch nicht so die React Jünger, aber an sich einbinden, es ist ein Compiler Step und man kann es eben pro Komponente entscheiden, möchte man das nutzen und rappt dann einfach nur, also die Komponente, die man am Ende exportiert, rappt man einfach nur, also man gibt im Endeffekt den Returnwert der Blockfunktion zurück und der Parameter der Blockfunktion ist die Komponente. Richtig spannend. Also gerade wenn man natürlich eine bestehende React Applikation hat, wo man irgendwie Performance Probleme hat, ist es wahrscheinlich ein relativ einfacher Weg, das irgendwie dann zu verändern. Und was man hier auf der Website auch sieht, dass zum Beispiel das auch von Versal genutzt wird, Weiß, also gefühlt auch so ein zumindest Verseal ein großer namhafter Name. Ja, unterstützt wird, glaube ich, oder? Oder die unterstützen. Das nicht. Also er steht Use/Sponsored, aber er sagt nicht genau wer. Allerdings muss man sagen, die, die da auch aufgeführt sind, Weiß und Dimension sind beides Projekte, bei denen er arbeitet, auch gearbeitet hat. Also irgendwie hat das Unternehmen teilweise irgendwie so Teilzeit bei den Unternehmen. Also Wiss ist irgendwie so ein Smart Home Ding, Dimension, weiß ich gar nicht, was es kein Interesse ist. Aber Verseal ist auf jeden Fall auch mit drauf, was auch immer das heißt, dass Versacell da mit drauf ist. Gut, dann nächstes kleines AI Thema. Es geht Barth, das ChatGPT von Google. Und zwar gibt es ein Updatedass sie, dass er das S jetzt besser ist in Logik Operationen. Gps 3.5 auf GPS 4 war ja auch schon ein guter Schritt, dass man mathematische Aufgaben auch lösen konnte. Da war aber letztendlich eigentlich nur die Herangehensweise vom Technischen ist es trotzdem gleich geblieben, ist einfach nur größer geworden. Und dadurch, dass das Modell mehr gelernt hat, hat es auch mehr Rechenaufgaben gelernt und konnte deswegen besser vorhersagen, was denn vielleicht die Lösung sein wird auf eine mathematische Aufgabe. Also das ist ja grundsätzlich so, wie die Lerche Language Modelle funktionieren, dass sie einfach nur das nächste Token Index, das nächste Wort vorhersagen und durch das viele Wissen, was sie haben, eventuell richtig liegen bei Matheaufgaben. Und was sich jetzt bei Barth ändert, ist, dass sie im Hintergrund noch einen zweiten Schritt aus einführen, wo letztendlich das Modell selbst Python Code schreibt und diesen Python Code ausführt. Und das führt einfach dazu, dass bei einer mathematischen Frage, die du hast, programmiert einfach im Hintergrund praktisch, was es dafür braucht, das zu machen, führt es aus und gibt dir dann das Ergebnis zurück. Und dadurch kann es sich halt selbst, was diese logischen Dinge angeht, viel besser korrigieren und viel komplexere Aufgaben letztendlich schon lösen. Genau. Und Sie vergleichen es so ein bisschen. Es gibt wohl ein, gibt so etwas, was wohl in einigen Studien immer im menschlichen Kopf irgendwie gezeigt wurde, oder? Daniel Kahneman oder Daniel Kahneman, oder ist das ein, ich weiß nicht aus welcher Nationalität, vielleicht auch Daniel Kahneman, thinking fast and Slow heißt ein Buch und da wird beschrieben, wie unser Denkprozess in einem System eins und einem System zwei funktioniert. Und das System eins ist das schnelle, intuïtive Denken. Und das kann tatsächlich ein bisschen verglichen werden mit den Lerche Language Models, weil es einfach so intuitiv, was ist das nächste Wort, was kommt? Das denke ich mir aus. Das schreibe ich auf den Screen. Das ist das, was da kommt. Und unser System 2 im Gegensatz dazu ist halt eins, was viel langsamer ist, viel mehr nachdenken muss, wo es viel mehr Rechenpower braucht unseres Kopfes, das zu bekommen. Und das ist beispielsweise, wenn wir irgendwie eine große Division in unserem Kopf machen oder wenn wir anfangen, ein Instrument zu spielen oder so was. Das sind Prozesse, die sehr langsam sind, wo wir viel Energie reinstecken müssen, aber wo wir dann natürlich trotzdem irgendwie auf ein Ergebnis kommen, in der Regel, was gut ist. Und so beschreiben sie es letztendlich, dass einmal dieses sehr schnelle, ich werf einfach, ich denke einfach, das ist das nächste Wort, kombiniert wird mit Oh, ich nehme mal kurz Zeit, das richtig zu berechnen. Das ist ja wahrscheinlich jetzt nichts, was das LAR an sich kann. Ich frage mich, ist es so von der Implementierung her, dass sie dann wahrscheinlich irgendwie den Prompt pausen und irgendwie selbst probieren zu identifizieren, was die Rechenoperation ist und dann irgendwie den Prompt umschreiben und sagen... Also es wird ja nicht... Das LAR wird ja nicht selbst innerhalb des Prompt erkennen, dass es jetzt eine Rechenaufgabe und die gebe ich jetzt mal an. Doch ich glaube schon, dass sie das Modell insoweit erweitert haben. Also das ist... Das Ganze nennt sich implizite Code Ausführung. Und hier steht das BAD erkennt, wenn es Rechenintensive Promps gibt oder wenn da irgendwas in dem Prompt ist, was eventuell… Was ist ein guter Übersetzungs… Computational. Mach doch mal ein. Beispiel, Dennis. Was eine Berechnung braucht. Was eine Berechnung braucht. Zum Beispiel: Was sind die Primfaktoren von 1 Million 385.725? Und was sagt Fetch DBT? Der guckt einfach, weißt du, hat. Das … Was sag ich? Ich denke fünf. Drei, zwei, fünf, sieben. Ach so, die sagen irgendeine random Zahl. Ja, das kann auch richtig sein, wenn es halt irgendwie den Kontext schon mal gelernt hat, aber kann halt auch sehr gut falsch sein, dass das Ganze ist. Und bei Barth war es wahrscheinlich auch noch häufig falsch. Und hier würde jetzt erkennen: „Oh krass, das ist ja was, was man mathematisch ausrechnen kann und wo ich nicht unbedingt einfach ausdenken muss, was eventuell die Antwort ist. Und dann würde im Hintergrund, diese Python Script geschrieben, was das ausrechnet, ausgeführt und das Ergebnis dann wieder zurückgegeben. Oder eine andere Sache, die beispielsweise diese Language Models auch nicht können, ist so was wie buchstabiere ein Wort rückwärts. Das ist etwas, was sehr schwer für sie ist, weil das halt nicht gelernt ist, was sehr. Wo ich mir trotzdem weiter nicht vorstellen kann, dass das Lerche Language Model von Barth wird es ja trotzdem nicht können. Das ist wahrscheinlich eine Zwischenschicht. Genau. Es muss ja eine. Zwischenschicht geben. Genau. Aber ja, das, was das Modell kann, ist erkennen, wann wäre es mal besser zu fragen? Dann, ich denke, dass der Python Code, der generiert werden muss, das zu lösen, das kann das Modell ja schon wiederum. Und dann hat es halt eine Schnittstelle, wo ist eine Umgebung, wo es Code ausführen kann und nimmt das Ergebnis wieder zurück in die Antwort. Also meinen Sie schon, dass das LADR irgendwie in der Form gefinetunt oder zumindest neu trainiert wurde? So was wie, dass es keine Ahnung, dann anstatt des Ergebnisses, dann muss das irgendwie mit Daten trainiert worden sein, wo es dann eine Art Return gibt und sagt Okay, an der Stelle möchte ich gerne diesen Python Code ausprobieren und gib mir die Antwort dann wieder zurück, dann darauf weiter zu denken oder so. Also irgendwie muss es ja mit einem Token Platz erarbeiten und das, was dann sagt, führt es mal wieder aus. Wahrscheinlich ist es so ähnlich, weißt du, wie mit diesen ChatGPT Function Calls, dass man gesagt hat, man hat das Modell einfach feingetunt, dass er halt diese Kontexte erkennen kann, das in irgendeine Form bringen kann, was er dann wieder in Python Codeübersetzt. Und das muss er irgendwann vor uns zurückgeben. Also mein einer Input, wenn ich als Enduser nur den Input Prompt gebe, rechnen wir die Primfaktoren von dieser netten Zahl aus. Nehmen wir die Primfaktoren, dann wird es intern mehrere Calls ans Language Language Model geben und das Language Language Model erkennt selbst. Ja, bzw. Das Ausführen des Python Codes muss in irgendeinem Kontext passieren, das außerhalb ist vom. Dutch Language Model. Und du sagst, das Dutch Language Model triggert aber sagt sozusagen irgendwie anhand eines vordefinierten Returnwärts, jetzt möchte ich bitte diesen Code ausgeführt haben. Ja, okay. Interessant. Ja. Da wir sowieso noch nicht auf Bar zugreifen können. Stimmt, genau das ist die andere Information. Sie haben es noch ein bisschen weiter zurückgestellt, die Veröffentlichung, weil es ja immer noch irgendwelche rechtlichen Bedenken gibt. Also wir müssen uns noch ein bisschen gedulden, bis wir es nutzen können. Und eine ganz kurze Kleinigkeit dazu. Also Sie hatten zwei Sachen dazu gesagt, einmal das und was auch irgendwie mathematisch ist, aber der Export in Google Sheets oder es gibt jetzt eine neue Aktion in Google Sheets exportieren. Das heißt jedes Mal, wenn irgendwie tabellarische Daten da sind, kannst du die direkt in Google Sheets exportieren aus Bord. Das heißt, bald müssen wir alle gar nicht mehr arbeiten. Und wenn wir arbeiten müssen, wo machen wir das am liebsten? Ja, das ist eine schöne Überleitung. Die News dazu ist, dass Google oder dass es eine Diskussion gibt bei Google. Nein, wie kann man das sagen? Die Personalchefin hat gesagt, wir hätten das ganz gerne, dass ihr mindestens drei Tage die Woche ins Büro kommt. Das hat sie, glaube ich, schon vor einem Jahr gesagt, oder? Da gab es irgendwie so die Bitte, dass es gerne gesehen würde und jetzt? Genau. Und jetzt haben sie gesagt: „Na ja, wenn ihr das halt nicht macht, dann kann es passieren, dass ihr eure Mitarbeiterbewertung wird dann nicht so gut ausfallen. Und na ja, dann werde ich ja nicht mehr befördert. So vielSpaß. Ja, so weit die News. Und dann sagen sie ja. Also erst mal so geschichtlich. Ich wurde jetzt gefragt, wie war es eigentlich vorher geregelt und so? Und da wird eigentlich nur gesagt, ja vorher brauchte man eigentlich gar nicht so eine, also vor Corona brauchte man nicht so eine wirkliche Remote Office Regelung, weil die Leute eh im Office gewohnt haben. Das ist halt so luxuriös ausgestattet mit allen Sachen, also Essen, Periküre, Freizeit, alles mögliche. Genau. Also du wolltest eigentlich gar nicht zu Hause wohnen oder bist halt nur nach Hause zum Schlafen. Dann kam Corona und dann hat der Kunde gesagt: „Ja, Homeoffice, wir haben auch die Tools übrigens dafür entwickelt. Also mach das doch. Voll die gute Idee. Und jetzt sind sie langsam am Zurück Rudern und versuchen die Leute wieder ins Office zu holen. Dann fragt man sich vielleicht warum? Und da sagt die Personalchefin, die Fioona, Tchikoni, wenn man das so ausspricht, sie hat beobachtet, oder es ist unweigerlich so, dass es viele Synergieeffekte und viele positive Effekte gibt, wenn Menschen zusammenkommen und zusammenarbeiten persönlich. Und diese Erkenntnis hat auch irgendwann mal der CEO von Open AI, der Sam Altmann, geteilt und gesagt, für kreatives Zusammenarbeiten, gerade was in Startups viel passiert, ist es eigentlich eine viel bessere Atmosphäre, wenn man sich persönlich sieht. Dafür wären die Remote Tools noch nicht gut genug. Das heißt, jetzt gibt es die Regelung, dreimal pro Woche sollte man physisch anwesend sein im Büro. Genau, wenn du noch befördert werden willst. Wenn du gut befördert werden willst, dann fünf von fünf. Was für Auswirkungen es haben wird, ist natürlich so die Frage, ob jetzt viele sagen: „Okay, dann passe ich mich eben an und irgendwie kehrt es zurück. Ich hatte nur gelesen, dass viele gesagt haben: „Nein, das mache ich nicht mehr mit. Ich habe mich irgendwie so dran gewöhnt und das ist mir zu restriktiv, diese Regelung, dann kündige ich eher meinen Job. Ja, ist halt die Frage, wie sich dann die insgesamt Industrie weiterentwickeln wird. Ich meine, Amazon … Genau, jetzt haben wir es ja mit vielen großen Firmen haben jetzt auch alle zurückgerudert und gesagt: „So, was war das, Dell, Amazon, Disney? Also Meta ist immer noch, oder? Wie ist Meta aufgestellt? Ich glaube, von denen haben wir noch nicht. Die sind ja eh Metaverse, keine Ahnung. Die sind ja eigentlich alle immer zusammen mit ihren Brillen. Ich weiß nicht, wie die Regelung bei Meta gerade ist. Also stellt sich aktuell für mich so dar, dass die großen Firmen da so ein bisschen zurück tödeln. Und wenn ich jetzt ein Entwickler bin bei Google und sage, ich möchte eigentlich mir das bewahren, dann würde ja eigentlich nur der Switch zu einer kleineren Firma oder einem Startup passen. Und gerade bei Startups, wenn da die Remote Arbeit noch mehr hittet auf den Outcome, ist das dann doppelt doof? Keine Ahnung. Ich glaube, es gibt Unternehmen, die sich das einfach von vornherein auf die Fahne schreiben und sagen, wir sind halt eine Remote First Company und du kannst einfach weltweit von weltweit arbeiten. Dann hast du natürlich da gar keine Probleme, wenn es so in dieser Philosophie der Firma so ein bisschen verankert ist. Aber wir merken ja auch, dass es Vorteile hat, wirklich vor Ort zusammen zu sein und arbeiten zu können. Und ich glaube bei Firmen, wo man nicht so viel kreativen Prozess hat, der so von, weiß nicht, so Brainstorming und dass man sich solche Sachen zuwirft und so profitiert, sondern wenn es wirklich nur so ein bisschen in Anführungszeichen stupides Abarbeiten ist. Ich glaube halt, dass ich weiß nicht, ob man es so pauschalisieren kann, aber es hat halt auch viel damit zu tun, wie du deine Firma von vornherein aufgestellt hast, sondern ich kann mich manchmal bei einer Größe von Google und sowas, die irgendwie es gewohnt waren, irgendwie sich alle viel zu sehen und die ja wirklich das ins Exzessive getrieben haben, wie viel man sich da gesehen hat und dann auf einmal die Kultur irgendwie in eine neue Remote Error zu heben ist halt auch viel schwieriger als wenn was. Wann hat der letztens einer gesagt, mit GitLab, GitLab ist doch... Ja, genau. Gibt es ein paar, die wirklich komplett Remote und wenn du es halt von vornherein so aufstellst. Ich würde nicht sagen, dass du pauschalisieren kannst, dass der kreative Prozess nicht so gut funktioniert. Ich glaube schon, dass es einfach einfacher ist zusammen zu sein, das auf jeden Fall. Aber ich glaube, dass es genauso gut auch remote funktionieren kann. Aber ich kann schon verstehen, warum die großen Firmen. Ich meine, die Entlassungswellen und sowas hätten da ja auch irgendwie alle, ist jetzt auch nicht so, dass sie jetzt irgendwie leistet. Also sie sind ja eh auf Effizienz getrimmt. Und ich sage mal, wenn du natürlich gerade nicht die Kohle hast, irgendwie einen Culture Shift hinzulegen, so, und vielleicht auch mal ein bisschen da explorieren kannst, dann ist natürlich auch die einfache Lösung zu sagen okay, kommt erst mal alle wieder, das hat für uns funktioniert, an der Schraube drehen wir jetzt erst mal nicht. Wenn wir eh grad so ein bisschen andere Probleme haben mit AI Konkurrenz. Also ich kann den Move auf jeden Fall schon verstehen, aber es ist jetzt glaube ich kein pauschalisierender. Aber ich gehe auch mit mit dem, wie viele da jetzt wirklich dann kündigen bei Google und was dann sozusagen ich meine bei den Fank Companies, was ist der aktuelle Titel für die großen? Ist es Fangen? Ja. Zumindest hast du kannst jetzt nicht die große Aussage sagen, jeder andere macht es ja so, also da muss man schon sich wahrscheinlich komplett umorientieren. Ich glaube jetzt nicht, dass irgendwie so eine große Entlassungswelle oder Kündigungswelle kommt. Das glaube ich auch nicht. Ich glaube, es wird Einzelne geben. Aber ich glaube, dass viele das schon so akzeptieren. Also man hat immer nur so Bilder gesehen. Es hat jetzt ein Bild auf Twitter, wo dann irgendwie so ein Büro gezeigt wurde, wo halt irgendwie keiner mehr im Büro sitzt, so eine einzelne Person. Und das so ein bisschen zu symbolisieren, wie es gerade im Google Headquarter in manchen Abteilungen wohl aussieht. Und das ist wohl das, was auch so ein bisschen aufstößt, dass da viele Schreibtische einfach verweist sind und die Leute einfach gar nicht mehr vor Ort sind. Ja, Fang ist ja mal mega veraltet, oder? Ja. Facebook, also. Facebook, Amazon, Netflix, Google. Ich habe letztens ein Buch gelesen, wo es auch die Fangen geht. Aber das ist auch schon... Naja, also erstens heißen sie heute anders. Also Facebook ist Meta. Ja, wie war denn dann dein neuer Fangen war auf jeden Fall zu alt. Also früher war oder es war ja eigentlich Facebook, Amazon, Netflix und Google. Und 2017 wurde dann wohl noch Apple dazugenommen. Deswegen war es dann Fangen mit zwei A. Und jetzt wäre es ja eigentlich Meta und Alphabet als Kürzel. Das heißt Fangen geht da gar nicht mehr. Und Microsoft ist uncool oder wie? Warum sind die nicht dabei? Ja gut, müsste vielleicht auch mal wieder aufgenommen werden. Ich sage mal jetzt vor vor ChatGPT und AI. Und Open AI auch dazu? Ja gut, Open AI ist vielleicht nicht wirklich groß genug. Okay. Ja, das stimmt. Die lassen wir raus. Fangen ist noch Mama Mama Mama. Ja, wie auch immer. Ja, irgendein anderer. Auf jeden Fall die. Großen da halt. Die Großen. Aber jetzt bei Mama wäre dabei Microsoft Alphabet, Meta, Amazon und Apple. Das wäre Mama nur mit Doppel A am Ende. Replacing Netflix. Also Microsoft hat wohl Netflix ersetzt. So, Netflix gehört nicht dazu. Deswegen Netflix ist raus. Mama. Gut. Wie hatten wir das. Geklärtja, ich meine, das mehr oder weniger, ich weiß auch nicht, was wir da jetzt rausziehen aus der News. Aber ich meine, aber ich muss ja auch sagen, drei von fünf Tagen ist ja jetzt auch nicht komplett kein Remote Work, sondern? Ja, das stimmt. Das ist jetzt ein hybrides Ding. Und ja, also in dem, was ich so auf LinkedIn und so mitbekomme, gibt es einige, also nicht nur die großen, die schon sagen: „Hey, komplett Remote ist irgendwie schwierig. Wir versuchen es wieder ein bisschen einzufangen, ein bisschen zu strukturieren zumindest. Kannst du dich noch an Tesla erinnern? Tesla war komplett zurück. Eden hat es komplett zurückgedreht. Das war doch noch Corona Zeit, oder? Da war noch Covid, da hat er sie zurückgeschickt. Nein, wirklich. Das war noch relativ inbei einer Mietzeit. Die Leute arbeiten nicht mehr 80. Stunden pro Woche. Juni 2022. Ja, steht hier. Ja, der EDI. Haben wir lange nicht mehr, er hat eine Zeit lang immer über Eden geredet. Kaum ist AI. Da, ist EDI weggewachsen. Oh Mann, das muss ganz schnell an seinem Ego kratzen. Die Twitter Chefin hat angefangen die Woche, gell? Ja, stimmt, hat angefangen. Der hat jetzt Freizeit und twittert nicht. Mehr so viel für den. Der twittert nicht mehr so viel. Ja, ja, okay. Letzte Frage in die Runde: Würde es Twitter in einem Jahr noch geben als relevantes Technologieunternehmen? Sabi? Ja. Ja. Fabi? Nein. Das musst du erklären. Warum? Die aktuellen Zahlen. Ja, eigentlich ist doch so, dass das ja total stabil ist und die Nutzung ja eigentlich auch komplett zurückkehrt zu dem Niveau, wie es vorher war. Also die große Aufregung, die vorher geherrscht hat, hat sich eigentlich ja sehr stark gelegt. Dann hole ich die Folge raus, wo. Ich. Sage, dass alles gut ist. Oder wir müssen Muster doch noch ein bisschen besser verkaufen. Nächstes Jahr im Juni sprechen wir mal. Ich sage einfach mal Nein. Ich glaube auch schon, dass der Jojo recht hat. Aber für mich hat Twitter in meinem Leben eh nicht statt. Vielen Dank fürs Zuhören. Schreibt uns Feedback und bis bald. Eine schöne Woche. Macht es gut. Tschüss. Tschüss. Tschüss. Tschüss.

Verwandte Podcasts

  • News Asset 50

    News 50/24: React und Webcomponents // AWS und Aurora // Deno und Executables // Google und Quantencomputing // D-Link und Sicherheitslücken

  • News Asset 48

    News 48/24: Tate ohne Security // Google ohne Chrome // JavaScript ohne Trademark // App Store mit Awards // CSS mit Logo

  • News Asset 40

    News 40/24: OpenAI Dev Day und mehr // Wordpress und Open Source // Meta Connect 2024 // Deno 2.0

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • News Asset 32

    News 32/24: Google Monopol(y) // porffor // TypeScript in Node // Imports in Deno // Stack Overflow Developer Survey

  • News Asset 28

    News 28/24: Ladybird // Cursor // Google I/O Connect // dotenvx // window.ai

  • News Asset 26

    News 26/24: Return to Office bei Dell // EU ohne Apple Intelligence // React 19 Suspense Drama

  • Ai News 2023 24 (2)

    News AI #23: OpenAI-Drama // Google AI Overview // Golden Gate Claude // Perplexity Pages // Hugging Face FineWeb

  • News Asset 22

    News 22/24: Kotlin 2.0 // Google IDX // React Router // Tailwind // Athena Crisis // Apple Design Awards

  • News Asset 20

    News 20/24: GPT-4o // iOS 17.5 // Neue iPads // Bun 1.1.8 // Node.js 22

Feedback