Hallo und herzlich willkommen zu der programmier.bar News im neuen Jahr 2024. Somit auch werden die Kalenderwoche resettet. Wir sind bei der Folge zwei 24, auch wenn es die erste Folge im Jahr 24 ist. Aber Kalenderwoche zwei Es ist alles sehr kompliziert. Aber wie auch immer, ich bin der Fabi und mit mir die News. Heute macht der Liebe Sebi. Hi Sebi.
Hallöchen!
Und eigentlich wollten wir heute zu dritt sein. Wer heute nicht dabei sein kann, ist der Jan. Der ist nämlich ganz frisch Papa geworden und ist gerade dabei, Frau und Kind aus dem Krankenhaus abzuholen und wollte eigentlich noch heute mitmachen. Aber das Krankenhaus hat sie nicht losgelassen, weshalb wir jetzt hier zu zweit sitzen. Von daher Jan, an der Stelle auch herzlichen Glückwunsch, dass du nicht dabei bist. Aber es gibt ja einen schönen Grund. Wenn ihr aber den Jan mal live sehen wollt, dann fangen wir heute mal an mit ein bisschen Werbung in eigener Sache und packen das nicht ans Ende, sondern wir haben mal wieder ein Meetup am Start. Auch in diesem Jahr geht es wieder los. Und zwar geht es dieses Jahr am 1. Februar los. Donnerstag, den 1. Februar bei uns in Bad Nauheim mit dem Talk vom Hype ins eigene Produkt. Da. Den Talk macht der Christian Beyer, den kennt ihr schon aus gegebenenfalls auch zwei Folgen von uns. Er ist CTO und Co Founder von Think Tank Cure und hatte schon Erfolg mit uns Zum Thema Web Assembly und zu Blazer.
Und jetzt haben wir natürlich bei uns. Und wie gesagt, wenn ihr das mal in eurem eigenen Produkt einsetzen wollten, wirklich. Er kann glaube ich schon von einigen Produktivbeispielen reden, durch seinen durch seine Erfahrung mit, wo sie als Beratungsunternehmen unterwegs sind. Und wir sind mal ganz gespannt, wie das Ganze so aussieht, wenn man es nicht nur in irgendwelchen Hackathon mal Prototype irgendwo einbaut, sondern was was in was für Produkten schon integriert hat und was für Fallstricke er da gesehen hat. Also kommt gerne vorbei. Wir nehmen bestimmt auch noch eine Podcastfolge dazu auf. Genau. Aber heute die News im Jahr 2024. Wir haben ein paar dabei. IF mit der Version 3:04. Die JavaScript Rising Stars vom Jahre 2023 sind rausgekommen. Ein kleines Update zum Firma und Adobe Deal, die Apple Vision Pro. Da gibt es jetzt auch Updates. Soll ja dieses Jahr kommen. Jetzt wohl ein genaues Datum und es gibt ja gerade die gibt es auch schon CES die Consumer Electronics Show. Gibt es ein kleines cooles neues Device, das sich Rapid M1 nennt?
Können wir uns auch noch mal kurz drüber unterhalten. Sebi kennst du die JavaScript Rising Stars?
Wie kenne ich nicht. Aber ich bin ganz gespannt. Das klingt ja schön. Genau.
Es gibt die Seite Best Ofjs, das eine kuratierte Liste von JavaScript Libraries ist. So im Node und Webumfeld. Die wurde gebaut von Michael Rambo, einem Entwicklerin aus Japan und ist ein GitHub Repository, die wo man auch per Issue neue Repository vorschlagen kann und sie zählt einfach die Veränderungen der GitHub Stars in einem Zeitraum und die Rising Star 2023 sind dann sozusagen die Repository, die die meisten Sterne in diesem Jahr hinzugewonnen haben. Und gibt es verschiedene Kategorien? Also wenn man auf Project Overall guckt, dann sind da zehn an der Zahl, die in der Top Riege sind und vielleicht können wir einfach mal zusammen durchgehen. Es war nämlich letztes Jahr. Einer deiner absoluten Lieblinge war auf Platz eins, also im Jahr 2022, also im Jahr davor und ich war dann auf Platz eins, ist dieses Jahr immer noch auf Platz zwei, aber wurde wurde vom Thron gestoßen von Chelsea NY sagte das was als nicht IFJS zu sehen ist, der also im Endeffekt der Name des GitHub Webhooks wirklich schätze ich eines der Entwickler und er hat das UI Framework ins Leben gerufen.
Aber da draußen nennen es alle Schätzchen. Ui, aber ist wirklich auch genau der GitHub Pfad und es ist eine Komponente Library, aber für in erster Linie. Es gibt aber mittlerweile auch schon ein eine Open Source Variante davon für IF und ist eine sehr beliebt und er sagt selbst also was heißt eine Komponente oder eine UI Library? Der Unterschied ist auf jeden Fall, es ist keine wirkliche Library, die du per Abhängigkeit irgendwie die rein ziehst ins Projekt, sondern das hat eigentlich eher so ein bisschen das Talent der UI Libraries. Du kannst dir alles copy and paste von also du kopiert dir wirklich den kompletten Code der UI Library rein. Die haben so eine zum Beispiel so eine Quelle, mit der du das machen kannst. Entweder das einfach von der Homepage runterladen so oder du hast eine Zeile und sagst okay, die Komponente will ich drin haben, die wird wirklich in deinen in deinem Repository mit rein committed und ist keine Dependency, die du irgendwie reinziehst und ist wirklich super. Ich kann es echt bis vor kurzem noch gar nicht.
Habe mich in den letzten News auch mit dem Philipp drüber unterhalten, weil zum Beispiel dieses Self. Also dieser Schätzchen arbeitet jetzt übrigens auch bei Basel auch mal wieder einer, der von Westcell geschnappt wurde. Und das ist auch die UI Library, die zum Beispiel diese AI von was nutzt, wenn sie jetzt kannst. Ja V0 kannst du jetzt ja Elemente die generieren lassen und die basiert auch auf Schätze in UI. Also eigentlich alle Komponenten werden damit gebaut, wenn du die Komponente machst und klingt auf jeden Fall nach einem nach einer ganz coolen die ist halt in unserem View Ökosystem so nicht gibt bzw wie gesagt adaptiert aber dann nicht vom ursprünglichen Maintainer und auch eine super gute Doku und so hat also kann man echt mal reinschauen. Das klingt nach einem coolen Projekt Produkt im Ökosystem. Wir als alte Hasen haben natürlich nicht davon gehört und mussten bis zu den Rising Stars warten, dass sie in unsere Welt kommen.
Und was bedeutet Rising Star? Also wie viele Stars hat das und ist das eine absolute oder eine relative Änderung?
Relative Änderung im Jahr? Sie haben 39.000 Stars dazugewonnen, das dann direkt Platz eins Platz zwei ist dann dann mit 29.000 mehr Stars in diesem Jahr und Platz drei auch was. Was ich nicht kannte ist Excalibur RAF mit 23.000 Stars. Ich weiß nicht, ob dir das was sagt, fand ich aber auch ganz ganz cool. Oder sagt sie was? Das ist eine White Boarding Technologie. Es gibt einmal Excalibur com, wo du einfach whiteboarden kannst, so ein bisschen wie halt Miro oder ähnliches. Aber es ist im Traven Style, also irgendwie gerade auch für Leute keine Ahnung. Wenn du vorhast, wie YouTube Videos rund um rund um vielleicht Development Tutorials machen, ist natürlich immer ganz cool, wenn du so einen Zeichner drin hast. Aber auch generell, wenn du irgendwas zeichnen willst, ist das wirklich. Ich habe so ein bisschen ausprobiert. Ich kann es vorher auch nicht mega cool und es ist ein Repo, weil es erstmal grundsätzlich Open Source ist. Also kannst dieses Ganze einfach den ganzen Bereich einfach deiner eigenen Applikation integrieren. Com ist einfach nur so ein minimal Showcase davon, aber ist super mächtig und hat schon echt Spaß gemacht.
Damit so ein bisschen Diagramme zu machen, werde ich bestimmt das eine oder andere Mal in Zukunft auch noch einsetzen. Aber auch ganz cool, dass das komplett Open Source ist. Und du kannst dieses Virtual Whiteboard auf jeden Fall auch einfach in deiner Applikation integrieren. Auch lizenzmäßig alles frei.
Und das ist auch Multi User, da können mehrere auf dem gleichen malen oder.
Es ist auch Multi User. Genau real time Kollaboration. Weiß jetzt gar nicht wie es genau. Ich meine irgendeine Serverkomponente dafür brauchst du dann wahrscheinlich und weiß gar nicht, kommt das dann da auch mit? Ich habe nicht genau reingeschaut in den Source Code. Sie sprechen auf jeden Fall von Realtime Collaboration. Inwiefern das aber schon alles mit in dem Projekt mit drin ist oder wie viel man dann noch selbst machen muss für diese Realtime, das weiß ich gar nicht. Also kanntest du es vorher?
Schon mal davon gehört? Ja, aber nur im Kontext von Real Time Kollaboration. Und ich meine irgendwas in meinem Hinterkopf mit zwei Kombinatoren oder irgend so eine Library, die diese Datenstrukturen für kollaboratives Arbeiten bereitstellt. Aber ja, bin irgendwie also kein Experte und ich habe mich jetzt darauf nicht vorbereitet auf das Thema. Das war sowas, was ich noch im Hinterkopf hatte.
Ab Platz vier ist dann auch wieder eine Whiteboard Lösung mit TLDraw. Und das sind das zwei auf Platz drei und vier sind, danach kommen und so Dinge wie Platz fünf und sieben sind zum Beispiel Next.js und Reactio direkt auf Platz sieben mit jeweils um die 16 17.000 mehr. Und dann noch Superbase ist noch drin auf Platz sechs. Und was ich noch ganz interessant fand Ich habe immer mal als Pick of the Day Prisma JS genannt, als OEM für Typescript und da ist jetzt auf Platz 29 echt jetzt auch mal wieder vor den Rising Stars nicht kAnnte Drittorm was von der Doku auch super interessant aussieht, aber jetzt auch einige Blogbeiträge und YouTube Tutorials dazu. Schon mal angeschaut. Sieht super interessant aus als als ORM und allein einfach super sympathisch schon mal, dass sie dass es eine Homepage ist, wo sie. So ein bisschen diese das sagen unsere Kunden ist am Ende der der Landing Page Developers ORM und dann sind einfach fast nur Beispiele von Leuten, die darüber arbeiten. Zum Beispiel. Der erste Kommentar ist dann von Dax Head oder irgendein anderer YouTube Kommentar.
Das hatte doch PHP schon in 2007. Und dass nur so Kommentare da waren, finde ich schon mal eine sehr sympathische Seite. Kann man sich auf jeden Fall mal anschauen. Klingt auf jeden Fall noch immer nach einem coolen ORM und machen auch viele Benchmarks, dass sie auch alle natürlich viel schneller als Prisma und so sind. Aber sieht auf jeden Fall ganz cool aus. Düsseldorf. Genau das sind die Rising Stars und ansonsten glaube ich auch generell kann man einfach die Seite Best of JS sich immer mal anschauen. Ist. Ist auf jeden Fall cool, da einfach mal up to date zu bleiben. Ich glaube dann, wenn man sich nicht erst am Ende des Jahres anschaut, dann kriegt man auch noch ein paar mehr Dinge davon mit, die wir jetzt erst am Ende des Jahres wir zwei Nasen hier mitbekommen haben.
Es gibt Nike.
Packen wir in die Shownotes, dann vielleicht ein kleines Update. Wir haben es ja vor. Eine Ewigkeit war das mal Thema, das Adobe Sigma gekauft hat und jetzt haben wir seitdem keine News mehr gehabt. Das ist zwar jetzt schon ein paar Wochen alt, aber ich fand es zumindest ganz interessant. Sie schreiben mir noch mal 15 Monate ist es her, dass Adobe Firma gekauft hat, also knapp über ein Jahr. Und jetzt haben sie nach 15 Monaten Arbeit zusammen mit Regulatoren usw entschieden oder erkannt, dass sie eigentlich keinen Pfad mehr zu einem. Regulatorischen Approval kommen. Also Sie. Es wird nicht die Möglichkeit geben, dass diese beiden Firmen sich vereinen. Ich weiß nicht genau. Sie haben keine genauen Details dazu genannt, ob das dann irgendwie aufgrund von Monopolstellung oder ähnlichem nicht erlaubt wird. Aber sie schaffen es auf jeden Fall nicht dazu. Also sich untereinander zu einigen denke ich mal schon, aber eben von von offiziellen Stellen auch das Go für diesen Merger zu bekommen und treten daher daher davon zurück. Das heißt Firma gehört nicht mehr zu Adobe und der Deal ist geplatzt.
Was aber auf jeden Fall ganz interessant ist In dem Zuge muss Adobe Firma schlappe 1 Milliarde an Schadensersatz zahlen, wenn man das mal so ein bisschen in Relation setzt. Natürlich interessant. Über die letzten zehn Jahre hat Firma glaube ich 333 Millionen an Venture Capital irgendwie eingesammelt. Also das war, was sie overall eingesammelt haben. Und jetzt mit dem geplatzten Deal mit Adobe haben sie jetzt 1 Milliarde in Cash innerhalb von einer Hand. Ich weiß nicht, ob die wie sehr die Fakten da stimmen, aber man muss innerhalb von drei Tagen überwiesen sein. 1 Milliarde an Anicca, was natürlich jetzt mal zumindest schon mal in die Position bringt. An Kapital wird es ihnen jetzt erstmal nicht mangeln, um weiter aufzubauen. Auf jeden Fall ganz interessanter Move, weil damals, als wir darüber diskutiert haben, was ja wirklich so das Fragezeichen was wird aus Firma jetzt zusammen mit Adobe und sowas? Interessante Wendung in dieser in dieser Entwicklung.
Genau, kann man auch in Zukunft ohne Creative Cloud aber nicht genau.
Oder man kann ihn mal noch weiterhin nutzen. Das ist nicht halt irgendwie. Keine Ahnung. Was sind die Adobe Konkurrenten? Ich weiß es schon gar nicht mehr. Photoshop bestimmt nicht. Okay FSF 3:04 Sebi gab's mal wieder ein Update? Was? Was wird uns neues um die Ohren geworfen?
Der Name Slam Dunk. Okay, also Slam Dunk.
Da bin ich mal gespannt.
Die sind ja relativ konservativ. Also im Gegensatz zu Bannen, die ja eine neue Version jede Woche releasen. Das ist bei IF nicht ganz so häufig und deswegen haben wir da irgendwie so die Ohren gespitzt und sind ganz aufmerksam, was eigentlich passiert. Und das Release ist nun meiner Release von drei auf die drei vier und bringt so ein paar Quality of Life Verbesserungen mit. Erstmal Der IF hat den Single Komponente Parser neu geschrieben. Der soll doppelt so schnell sein, was die Bildzeiten von den Projekten ein bisschen runter drückt. Dadurch, dass in die Build Zeiten nicht nur das Kompilieren von Single Komponente mit einfließt, sind die Bildzeiten jetzt nicht halbiert, sondern halt irgendwie so 20 30 % vielleicht schneller. Aber ein bisschen sind wir schon schon mal gut. Dann haben Sie ein cooles Update beim Reaktivity System gemacht, das jetzt effizienter arbeitet, gerade bei Compute Properties. Das war so ein Punkt, dass Computer Properties immer gefeuert haben, wenn sich eine ihrer Abhängigkeiten verändert haben. Und dabei wurde auch ignoriert, dass das Ergebnis vielleicht, was sie eigentlich als Value ausgeben, sich nicht geändert hat.
Gerade solche Beispiele wie ist es zum Beispiel die Länge meiner Liste größer als zehn oder sowas. Und dann habe ich da Elemente reingetan und mit jedem Reintun eines neuen Elements hat er eben jedes Mal, falls irgendwie gefeuert solche Szenarien gab, sondern wurde eben auch jedes Mal durch die Invalidierung dieser Computer Property die Komponente neu gezeichnet verändert. Und das haben sie jetzt so weit also das haben Sie behoben. War jetzt nicht unbedingt ein Fehler, aber das gefixt. Wer If drei drei verwendet und in das Problem gelaufen ist, da gibt es von If Use eine Komponente, oder? Wie heißt das? Also da gibt es einen Computer, Tiger heißt das da und dann gibt es auch einen Artikel dazu, wie man dieses Problem umgehen kann. Aber das muss man jetzt nicht mehr. Man geht mit drei, vier. Das ist ganz cool. Soll eben die Performance von den Anwendungen verbessern und Ineffizienz vermeiden. Coole Sache. Drop in Komplettdownloads kompatibel. Also nur Vorteile. Und die andere Sache ist, Sie haben seit ich weiß nicht 3233 oder sowas nur ein experimentelles Feature drin gehabt.
Das ist ein Compiler Makro. So wie es Devine Props und Devine mitgibt, hatten sie eins getestet, das Defined Model heißt. Und was dieses zwei Binding von Komponenten vereinfachen soll, das ist schon die ganze Zeit möglich, dass ich zum Beispiel bei einem Input Text Input Feld eine Referenz definieren kann, die ich setzen kann und das Inputfeld sich ableitet oder im Input Feld schreibe und die Referenz sich ableitet, also in beide Richtungen funktioniert. Und das hat bisher allerdings immer so funktioniert, dass ich eine Property hatte und ein spezielles Limit, was glaube ich mit Update Doppelpunkt Präfix war oder so.
Modelupdate, ModelValue oder.
Update. Ja genau. Also mit Update, Doppelpunkt und dann ModelValue im Default Case oder eben der Name davon.
Also wenn es nicht normal wäre, wenn man wirklich wie Model nimmt, also.
Und dann kannst du dem ja auch Namen geben und usw. Also das haben wir jetzt mal vereinfacht, ist jetzt ein Einzeiler und das ist jetzt stable.
Selber kann ich bei dem einen Model dann auch einen Variablennamen mitgeben. Ich kann es nicht nur für einen Model nutzen, wenn ich den Input Parameter wie Model nutze, sondern generell.
Genau, wenn du nur Model nimmst, dann schreibst du dir in Model Klammer auf, Klammer zu und wenn du ein Name vergeben willst, schreibst du dir in Model Klammer Aufnahme, Klammer zu. Vorher musste ich, also muss ich immer nachschlagen, wie es jetzt genau heißt. Muss ich jetzt nicht mehr? Vielleicht. Hoffentlich. Ja. Quality of Life. Irgendwie wie bei And same Name Shorthand. Naja, okay. Also ich habe eine Variable in meiner Singlekomponente, die heißt Source. Und dann kann ich die einem Bild zuweisen, dem ich schreibe Doppelpunkt Source und ich muss nicht mehr schreiben Doppelpunkt zuerst ist gleich Anführungszeichen zu ist. So? Ja, genau. Also das waren so die Hauptpunkte würde ich sagen. Ansonsten sind die Error Meldung Meldungen bei Hydrationsmatches ein bisschen verbessert worden und noch ein paar andere Sachen und ein paar Features removed. Und ja, aber wir verlinken mal die den Changelog könnt ihr reinschauen. Ansonsten ist das ein Update, was man machen kann, was eigentlich nicht groß Probleme verursachen sollte.
Vielleicht noch, um es dann komplett rund zu machen. In den Rising Stars 2023 war IF. Zumindest wenn man in die Kategorie Frontend Frameworks schaut, nur auf Platz fünf mit 7,9000 Stars im Vergleich bei 17.000. So ist es nicht. Es würde übrigens überholt Von oder vor View sind noch Welt und Million. Fand ich auch interessant. Das hatten wir vor.
Ewigkeiten.
Mal, es ist ja diese Performance optimierte Variante von diesem einen relativ jungen Typen. Ich weiß es gar nicht. Wir hatten das in irgendeiner Newsfolge, so was ich auf jeden Fall sehr interessant fand, dass das als eine schnellere Variante von mehr Stars dazugewonnen hat als View selbst. Das sind auf jeden Fall die gar nicht mehr auf dem Schirm danach. Nach unserer Newsfolge.
Hast du nur aus Gaudi einen absoluten Vergleich. Jetzt nicht, wenn man den Zugewinn vergleicht, sondern absoluten Sterne für die Gaudi.
Kriege ich bestimmt irgendwie raus, wenn ich hier ist. Totale Stars Budgets 42.000 Millionen 13.000 und 216.000.
216.116.
Also da kann man mal so viel vergleichen willst sind wir hier so Faktor fünf 1/2. Ungefähr.
Mali.
Hat mehr als 66 1/2. Selbst ex cathedra hat mehr als fünf. Wir sind im falschen Ökosystem. Wir sollten aber alles überdenken. Was machen wir hier?
Ja, wir sollten uns einfach nur nach den GitHub Stars richten.
Ich glaube, das ist die richtige Metrik. Genauso wie bei geschriebenen Zeilen. Code bei Entwicklern.
Ja. Es ist doch so!
Ja, genau. Hier haben wir zwei Dinge schon mal festgehalten. Haken dran.
So, jetzt bin ich aber. Ich will mir jetzt hier die Applevision los.
Ja.
Wollte ich auch sehen.
Seitdem haben wir auch Apple. Applevision Pro Wir.
Das Schnäppchen.
Das Schnäppchen. Was kostet das? Irgendwas nördlich von 3.000 $ oder so was.
Dreieinhalb 1.000 $.
Dreieinhalb. Ja, genau. Die Applevision Pro gab ja die ganze Zeit, hieß es ja nur. Anfang des nächsten Jahres kommt es zuerst in die USA und. Gab aber noch keine genaues Release Date für die Vision Pro. So, wir haben hier intern schon gesprochen. Wann fliegen wir in die USA um uns im Apple Store anzustellen? Hatten ja schon. Ich glaube in der News oder in unserer letzten Folge vor dem vor dem unserer Winterpause darüber gesprochen, dass Apple die Mitarbeiter aus den Stores jetzt schon nach Cupertino gerufen hat zu Schulungen rund um VisionPro, was zumindest schon mal ja die die These offen ließ, dass es jetzt nicht mehr allzu lange dauern kann. Und jetzt gab es einen Newsroom Beitrag von Apple, wo das Release Date der US Release AppleVision genannt wurde. Der 2. Februar und kann vorbestellt werden ab dem 19. Januar in den USA, also online. Und genau, es gab noch ein paar mehr. Announcements rund um die Vision Pro. Also ein paar Dinge, die noch offen geblieben sind bisher. So, und was jetzt genau mit im KIT mit dabei ist.
Was ich übrigens ganz interessant finde auch auch was dann so die die Linsen und so was Kosten kosten werden. Gab es bisher glaube ich auch noch keine Preise dazu. Und witzig auf jeden Fall, was in der Box mit drin ist. Also so die die verschiedenen Bänder um die Vision Pro zu befestigen hat mindestens 256 Gigabyte Storage mit drin. Die Vision pro. Und witzigerweise auch da gab es auch mal war auch mal ein Thema bei uns. Dieses Apple Mikrofasertuch ist mit drin, so dass Apple 25 € hat das gekostet oder so.
Ach so billig war das ja.
Ich habe auch noch mal nachgedacht. Ich habe sogar noch teure Erinnerungen. Aber ich meine, wenn man es mal runterbricht für ein Mikrofasertuch 25 € konnte man davor die ganze Zeit so separat bei Apple bestellen. Ist jetzt bei der Vision Pro mit drin, was glaube ich als Argument einfach reicht es jetzt zu bestellen.
Das rechtfertigt auch auf jeden Fall den Preis.
Ja genau. Aber ansonsten so Dinge wie Special Gaming. Sie hatten immer nur gesagt, dass es Gaming auf der Welt Pro geben wird, aber nicht so wirklich, wer die Release Partner sind. Da sind es auf jeden Fall so Dinge wie Super Fruit Ninja, die auf jeden Fall auch eine Special Variante von Super Fruit Ninja mit auf die Vision Pro bringen. Und irgendwie diese ganzen Environment, in dem man sich ja immer sehen kann, haben sie jetzt auch noch was da, was man wo man am Anfang sein kann natürlich klar. Yosemite, Joshua Tree National Park als auch der Mond, auf dem man sich auf den man unterwegs sein kann, super interessant und genau so! Sie haben jetzt auch gesagt, so 3D Movies war ja die ganze Zeit, das haben Sie glaube ich damals bei dem, als Sie die Keynote hatten, mit Disney irgendwie vorgestellt, sondern dass sie auch vorhaben, Filme für das 3D in Weimar zu machen. So wie Sie jetzt immer noch nicht gesagt haben, welche Titel es sind. Aber Sie haben gesagt, dass es mehr als 150 3D Titel für die Vision Pro geben wird, was auf jeden Fall schon eine ganze Menge so ist.
Ob das jetzt also mal gucken, Ich denke mal so was wie wer weiß. Avatar wird bestimmt eines der Titel sein.
Also Sie haben jetzt nur gesagt, das wird es geben.
Genau zum. Sie haben auch glaube ich gesagt zum Start so, aber Sie haben nicht gesagt, welches sind.
Und auf. Und sie haben nicht. Also Apple TV plus Apple TV plus oder auch Disney plus in der App.
Also generell 150 Titel und das Disney war nur das das. Den haben sie damals als den CEO von Disney oder so haben sie doch damals mit auf die Bühne geholt und haben irgendwie darüber gesprochen, was das für die Filmbranche machen kann. Aber ob diese 150 Titel werden bestimmt auch Disney Titel sein. Aber ich denke nicht exklusiv und auch da ist die Frage ist es dann. Also sind diese 3D Titel überhaupt in Apple TV in diesem plus Abonnement mit drin? Oder sind es einfach Titel, die du dir im Store kaufen musst und so? Also keine Ahnung ob die in diesem Abo mit drin sind. Auch dazu alles. Wurde noch nicht viel gesagt. Was aber noch ganz interessant ist, dass diese Personas, die man sich für Videocalls macht, also man kann ja die Vision nehmen, um sich selbst zu scannen, um dann dieses Alter Ego von sich zu erstellen, in dem man dann in Videocalls sprechen kann. Da war ja die ganze Zeit auch nicht klar. Okay, ist das ein Facetime Only Feature oder nicht? Das wird man auf jeden Fall auch in anderen Videokonferenzen Solutions nutzen können.
Sie haben so viel geschrieben zum Zoom Microsoft Teams. Ich denke mir dann auch Google mit wird wird auch funktionieren. Aber das ist auf jeden Fall ein Feature, das man auch in den anderen oder in jeglichen Videocalls irgendwie nutzen kann. Wright.
Das heißt, wann fliegen wir?
Ich weiß nicht. Hast du schon geguckt? Nach Tickets?
Mache ich jetzt direkt. Ja, aber wahrscheinlich werden wir es dann noch nicht. Also, ich habe gelesen, dass die nächsten Länder, die dann kommen, wohl UK, Kanada und China sind. Also Deutschland wird wahrscheinlich noch ein bisschen länger warten müssen.
Okay, UK ist ein bisschen näher.
Stimmt. Da können wir dann hinschwimmen.
Ja, fast. Ja, und genau, was wir noch am Anfang noch gesagt hatten. Die. Die angepassten Linsen, die Zeiss Linsen. Es gibt irgendwie 101 150 $. 100 sind sozusagen ganz einfache, wie in einer Lesebrille. Also Leselinsen sind. Ich bin kein Brillenträger, ich bin nicht so genau im Game drin. Sie sind nicht so genau, wahrscheinlich angepasst oder geschliffen und die Angepassten werden dann bei 150 $, also wenn es nicht nur für eine Lesebrille ist. Hm. Genau. Gut. Ja cool.
Ich bin auf jeden Fall. Ich glaube auch ab dem 19. oder ab dem 20. gibt Apple die Reviews frei. Also ich glaube, sie verschicken jetzt so langsam Devices an die Reviewer und dann können wir uns Ende des Monats die Reviews angucken. Bin sehr gespannt.
Achso, okay. Ja, bin ich auch gespannt. Bisher haben sie ja. Also wir haben ja schon einige Leute testen lassen, aber niemand durfte das bisher filmen. Ähm wir wir das wir das auf hatte. So von daher bin ich gespannt wenn man da dann mehr hat. Aber ich also auch krass gespannt so ein Ding dann mal Also irgendwie müssen wir unsere Hände mal dran bekommen, um das mal auszuprobieren. Das steht auf jeden Fall fest. Genau. Ansonsten noch als letztes Thema Wir. Es ist schrecklich. War ja gerade die 24 Electronics Show in den USA und da wurde irgendwie ein Device vorgestellt, was ich ganz interessant fand. Das, worüber wir uns mal unterhalten können, ist vielleicht auch so halb schon Thema aufgegriffen von den AI News. Und zwar gibt es das Rabbit, eine Firma, von der ich jetzt vorher irgendwie gar nichts gehört hatte. Also auch irgendwie vorher keine. Keine Roomers. Es ist ein kleines bisschen. Wir haben uns ja schon mal über diesen Eipin unterhalten. Also so ein bisschen ein neues Hardware Device, was AI in ein AI First Hardware Device sozusagen.
Und in diesem Fall ist es nicht der kleine AI Pin, sondern etwas größeres Device mit Display finde ich. Übrigens Design hab ich direkt gedacht, spricht mich super an und es ist mal wieder von Ich war glaube ich noch nicht hier bei uns in den News Thema von Teenage Engineering, einer Firma, die auf jeden Fall super bekannt dafür super coole Hardware herzustellen, viel im Musikbereich eigentlich unterwegs ist. So Synthesizer als auch Smart Speaker und sowas bauen. Aber auch der Sven, mit dem der Sebi und ich zusammen im Team arbeiten. Auch die haben so einen kleinen Handheld Gaming Computer oder so eine kleine wie eine Art Gameboy hergestellt mit einem ganz coole Mechanikers, um sie anzutreiben. Die haben dieses Gerät designt und von der Art her ist es ein. Ihr könnt euch vorstellen, vielleicht halb so groß wie ein iPhone, relativ quadratisches Gerät in leuchtend rot, mit einem kleinen Display, einer Kamera, einem Knopf und vorne dran einem Drehrad und das Auf dem Display sieht man einen kleinen Hasen. Dieser Hase ist sozusagen das die, die die Visualisierung der AI und darauf läuft.
Rabbit OS und Rabbit OS ist im Grunde genommen ein AI First Device. So, also da hinten dran läuft ein Large Language Model, mit dem ich per Sprache als auch per per Tastatur interagieren kann, das dann auch mit mir spricht. Und der Unterschied ist aber so ein bisschen es ist dann in dem Sinne, wie Sie es sagen, nicht nur ein Language Model, mit dem ich einfach interagieren kann, sondern Sie haben sich die Frage gestellt, Wie kann das Device denn von unserer aktuellen App Welt hin zu einem AI First Welt kommen? So, also wir haben unsere Smartphones, auf denen diese ganzen Apps laufen, die wir eigentlich auch brauchen. Und wie kommen wir denn dahin, dass diese ganzen Dinge, die wir jetzt schon tun, auch die AI tun kann, wo wir verschiedenste Ansätze sehen? Und ihr Ansatz ist über ein Lahm, nennt das also ein Large Application Model und sie haben ein Modell kreiert, das man trainieren kann und dem man beibringen kann, wie es mit Applikation zu interagieren hat. Also es gibt einen, es gibt einen, eine Onlineplattform von Rabbit, wo man sich mit seinen Login Daten von verschiedenen Anbietern hinterlegen kann, ob die dann rabbit zugriff.
Also beispielsweise kann ich mich mit meinem Spotify Account anmelden, dann kann ich Rabbit ein bisschen so wie eine smarte Siri einfach fragen okay, hier spielt Musik ab, macht folgendes kann auch die Kamera anmachen, irgendwas abfilmen und sagen Hier, welcher Künstler ist das? Ein Bild von Lady Gaga zeigen und sagen Hier spielen wir mal Musik auf Spotify ab und kann grundsätzlich mit allen Applikationen, mit denen ich irgendwie so arbeite, interagieren. Und das Interessante ist, dass ich ihm beibringen kann, mit Applikationen zu interagieren. Also es sind jetzt nicht so, dass es eine vorgefertigte Anzahl von Applikationen gibt, die Rabbit da hinstellt und sagt hier das die Spotify API, die wir angeboten haben, jetzt kannst du Musik hören, sondern sie haben das Beispiel auch gemacht, die haben so einen Online Tour. Ich glaube sie nennen das Online Rabbit Hole, wo man zum Beispiel ihr Beispiel war. Sie haben mir beigebracht, dem Tool mit Journey Builder zu generieren. Und zwar kannst du dann einfach sagen okay, du meldest in deinem Discord Weboberfläche an, zeigst dem dem Lahm.
Diesen Large Application Model. Nimmst du sozusagen einen Flow auf? Wie erzeugst du sozusagen so einen? Wie erzeugst du so ein Bild, gehst dann in sprichst mit dem. Mit Journey Board gibt es dann Text ein und das Bild wird generiert und am Ende drückst du auf den Link und zeigst dieses Bild an So und das kannst du dem Large Action Model geben. Wird dadurch trainiert und es kann ab dann diese diese Interaktion für dich ausführen auf durch durch dein rabbit einmal. Device kann einfach sagen okay, erzeuge mir bitte ein Bild mit mit Journey. Und das Ganze macht das dann für dich und kann diesen Flow sozusagen bedienen. Sie haben noch nicht so viel Details darin gegeben, wie das Ganze grundsätzlich funktioniert. Grundsätzlich sagen Sie mal, es geht sowohl iOS. Also ich kann das mit einer iOS App machen, ich kann es mit der Android App machen, ich kann es mit Desktop machen und es läuft am Ende so, dass sie die Credentials von dir haben. Sie sagen, sie sind Privacy First. Wie sie das genau machen, ist auch noch für mich das große Fragezeichen.
Aber Sie lassen alles in Ihrer Virtualisierung, in Ihrer Cloud ablaufen. Also wie Sie das skalieren wollen, bin ich auch noch mal gespannt drauf. Aber im Endeffekt ist es. Wenn so ein mit Journey Board dann ausgeführt wird, haben Sie im Hintergrund Server, auf denen Sie das Ganze dann ausführen, sozusagen diesen Flow, dann melden Sie sich auf Discord an und und führen dieses Bild aus. Aber es sind. Also es sind für mich einige Fragezeichen, aber bisher gibt es nur die Keynote von Ihnen dazu. Und dieses Device soll, weil es Rabbit auch heißt an Ostern released werden. Und Aber auf jeden Fall so ein paar Fragezeichen. Wie machen Sie das Privacy? Wie genau funktioniert wirklich dieses Trainieren von das ich irgendwie jetzt sozusagen eine Applikation zeigen kann und sage Hier, mach mal bitte folgenden Flow für mich so und interagiert für mich mit all meinen Applikationen, mit meinen ganzen Apps, mit denen ich sonst auf meinem iPhone oder auf meinem Desktop interagieren würde. Ich glaube, es gab sogar Beispiele. Sowas wie Sie haben selbst ein Photoshopbeispiel genannt, wo ich auf meinem Desktop Photoshop aufmachen können soll und sagen können so was wie entfernen wir mal das Watermark so und das ist selbst, dass das können soll, so dass Photoshop im Hintergrund aufgemacht wird, ein Watermark entfernt wird und die dann, dass das das Ergebnis des Bildes wieder angezeigt wird.
Also ich habe ein großes Fragezeichen hinzu Wie soll das skalieren? Wie funktioniert das technisch wirklich, das sie da, das sie da emuliert? Also sie müssen ja irgendwo iPhones laufen haben, worauf sie dann Apps starten können und so und Also diese ganze Infrastruktur finde ich super interessant und auch ob dieses Action Large Application Model wirklich so gut funktioniert. Aber ich fand den ganzen Ansatz auf jeden Fall cool so, weil sie halt sich halt direkt eines bestehenden Ökosystems bedienen können, wo halt andere hat sonst erstmal überhaupt hinbekommen müssen, ein großes Ökosystem wie ein iPhone mit dem App Store hinzustellen. Jetzt auch keine Ahnung, ob man mit GPT. Dass diese ganzen Anbindung überhaupt erstmal alle möglich sind. Müssen halt alle gebaut werden. Wenn es jetzt wirklich so ein generisches Large Application Model dafür geben sollte. Interessanter Ansatz auf jeden Fall. Aber wie gesagt sehr, sehr viele Fragezeichen da hinten dran, ob das überhaupt geht.
Also da gibt es aktuell nur die Keynote von und.
Nur die Keynote und ein paar. Sie haben es auf der Consumer Electronics Show wohl vorgestellt und ein paar paar Reporter, die das auch schon ausprobieren konnten. So okay. Aber sehr limitiert. Wie gesagt.
Wir erinnern uns an die Mini Ultra Präsi von Google. War auch ziemlich cool.
Ja und da war ja schon eine Company mit Google hinten dran, der man viel weniger vertrauen konnte als dieser sehr bekannten Firma Rabbit.
Ja.
Also wie gesagt, ich finde es super interessant, weil sie wollen es für 200 $ verkaufen. Es soll keine Subscription geben. Ist auch der nächste Part mit so wie wollen Sie das dann skalieren, wenn Sie. Wenn Sie aber die Infrastruktur hinten dran hosten müssen.
Also da fragen wir doch erst mal wo ist der Haken? Ja.
Aber guckt euch mal die Keynote an! Ich finde, wenn man sich nur einfach mal als Idee so ein bisschen anschaut, wie das auch wieder mal eine eine Variante von AI Device, so die, die hat mir so ein bisschen Inspiration gegeben. Ich fand es ganz interessant, die Kino zu gucken. Und bin mit vielen Fragezeichen raus und aber zumindest mal kurz. Überlegung für 200 $ kann man es auch mal bestellen.
Stimmt.
Dann ist ja günstiger als wenn wir wenn wir in den USA sind.
Richtig. Also hole ich mir eine Linse für die Vision pro oder hole ich mir das Ganze oder das Mikrofasertuch? Achtmal Microfaser. Genau. Oh Mann. Na gut.
Jetzt einige Updates im neuen Jahr. Wir sind sozusagen damit mit diesem Aufschlag der News wieder da. Mit der Programmier.bar im Jahre 2024. Nächste Woche geht es los mit der News. Es sind auch schon einige für euch vorbereitet und ansonsten bleibt wie gesagt nur zu sagen Schaut bei uns in wieder mal Bad Nauheim vorbei. Am 1. Februar, 18:00 geht's los mit einem kleinen Buffet und danach könnt ihr euch hoffentlich noch einen Lightning Talk anhören, der noch offen ist, aber auf jeden Fall den Talk vom Heim ins eigene Produkt mit und von Christian Beyer freuen wir uns sehr. Ich werde da sein. Sebi Vielleicht auch. Ja, auf jeden Fall würde es freuen, euch zu sehen. Bis dann.
Okay, bis dann. Ciao. Ciao. Ciao.