Xyna.AI auf der MLCon Berlin, Xyna.AI auf der OpenRheinMain in Darmstadt, Startschuss für private Xyna.AI GPU-Instanz
Xyna Bulletin #06
Liebe Kunden, Partner und Freunde,
unsere Aktivitäten im Bereich der künstlichen Intelligenz nehmen Fahrt auf! In der zweiten Jahreshälfte sind wir unter dem Label Xyna.AI gleich auf zwei Konferenzen aktiv: im September auf der OpenRheinMain (ORM) in Darmstadt und im November auf der MLCon in Berlin.
Bereits seit einiger Zeit entwickeln wir ein eigenes Lösungsportfolio für KI-Anwendungen: aufbauend auf der Xyna.com Cloud-Plattform entsteht hierfür aktuell eine eigene private Xyna.AI GPU-Instanz.
Viel Spaß beim Lesen!
Mit freundlichen Grüßen aus Mainz
Philipp
PS: Sie kennen Kolleg*innen, für die das Thema Xyna auch spannend ist? Dann gerne weitersagen! Eine kurze Antwort mit Kontaktdaten an bulletin@xyna.com reicht. Falls Sie aber kein Interesse haben, genügt eine kurze E-Mail zurück, und wir nehmen Sie aus dem Verteiler.
Xyna.AI auf der MLCon Berlin
Die MLCon (https://mlconference.ai/berlin/) ist eine führende Konferenz für Machine Learning-Technologien und Innovationen im Bereich künstlicher Intelligenz. Sie findet vom 27. – 30. November in Berlin statt.
Wir sind in diesem Jahr als Gold-Sponsor mit dabei! Alexander wird eine Keynote zum Thema „AI beyond the mainstream“ halten. Dabei wird er auf einer strategischen Ebene auf den Wert (und die Leistungsfähigkeit) von offenen Komponenten eingehen, um sich nicht von kommerziellen Blackbox-Angeboten abhängig zu machen — was für jedes Unternehmen von Relevanz ist, das eigene Innovationen und Werte schützen und bewahren möchte.
Zusätzlich bieten Alexander und Moritz unter dem Titel „Pair-Programming with AI?!“ eine interaktive Session an, in der wir hinter die Kulissen blicken und demonstrieren, wie wir die GenAI-Erweiterung XyPilot für assistiertes Deep Modeling mit Xyna Factory unter diesem Paradigma realisiert haben.
Auf der MLCon werden wir neben einer Reihe prominenter Namen aus dem „Establishment“ der AI-Industrie auftreten — es wird spannend, wie unsere Positionen aufgenommen und diskutiert werden. Wir freuen uns in jedem Fall auf einige gesprächsintensive Tage in Berlin!
Wer dem Ganzen beiwohnen möchte — aktuell ist Early Bird-Zeit, Teilnahmekarten können noch recht günstig erworben werden. Und wer nicht in Berlin sein kann, sich aber für unsere Aktivitäten interessiert: gerne ganz unkompliziert per E-Mail melden.
Xyna.AI auf der OpenRheinMain (ORM) Darmstadt
Noch vor der MLCon werden wir am 22. September 2023 auf der OpenRheinMain (ORM) Konferenz https://openrheinmain.org für Open Source und Emerging Digital Technologies dabei sein.
Wie schon 2022 sind wir als Gold-Sponsor u.a. neben der Deutschen Telekom ein Hauptunterstützer der Konferenz, die bereits seit einigen Jahren sehr erfolgreich aus dem Fachbereich Informatik der Hochschule Darmstadt aus organisiert wird.
Auch hier werden wir in einer Keynote, in einer begleitenden Session und in einem interaktiven Workshop auf unseren Ansatz von Xyna.AI eingehen: die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle für anspruchsvolle Lösungen und Pipelines, mit denen sich Anwendungen im Bereich künstlicher Intelligenz sicher und ohne proprietäre Black Boxes realisieren lassen.
Die Agenda der ORM wird Ende August veröffentlicht. Die Teilnahme ist kostenfrei möglich, die hierfür notwendige Registrierung ist bereits geöffnet. Wir würden uns freuen, den ein oder die andere Newsletter-Empfänger*in dort begrüßen zu dürfen!
Startschuss für private Xyna.AI GPU-Instanz
KI braucht Rechenleistung! Die aktuelle Generation von künstlicher Intelligenz mit ihren extrem gewachsenen Modellgrößen wurde erst durch die Fortschritte bei CPU- und GPU-Performance ermöglicht.
Auch für Xyna.AI benötigen wir ausreichende Ressourcen, um unsere innovativen Algorithmen entwickeln zu können. Denn obwohl wir uns auf Verfahren mit hoher Berechnungseffizienz konzentrieren — dabei sind wir sowohl ökonomisch als auch ökologisch motiviert — sind bei den aktuellen Modellgrößen die notwendigen Rechenleistungen noch immer erheblich.
Gleichzeitig wollen wir (wie auch andere Unternehmen) unsere Innovationen nicht unbedingt bei den großen Hyperscalern laufen lassen, Stichworte Informationssicherheit und Geheimschutz. Grade bei Anwendungen von KI im Bereich kritischer Infrastruktur ist es von existenzieller Wichtigkeit, solche Aspekte von Beginn an zu berücksichtigen und sensibel mit entsprechenden Daten umzugehen.
Deswegen haben wir damit begonnen, eigene Compute-Instanzen für AI auf der Xyna.com-Plattform aufzubauen. Mit üppiger CPU-Leistung und GPU-Beschleunigung ausgestattet, bieten sie uns die Möglichkeit, unsere Xyna.AI-Pipelines unter eigener Kontrolle und Souveränität über Verfahren und Daten laufen zu lassen.
Damit können wir selbstverständlich nicht mit Google oder AWS konkurrieren. Aber schon jetzt bilden diese Instanzen die größte Menge an Rechenleistung, die unser Unternehmen je besessen hat. Und wir waren schon in den Zeiten von Data Mining und Parallel Computing nie schlecht ausgestattet.
Auf der MLCon in Berlin (siehe Beitrag oben) werden wir erläutern, dass wir unseren Fokus auf die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle setzen.
Diese sind teils den kommerziellen Standardlösungen von Anbietern wie OpenAI ebenbürtig und in mancher Hinsicht sogar überlegen. Damit reiht sich Xyna.AI in unsere Produktphilosophie ein, dass Xyna Factory auf offenen Komponenten basiert und selbst auf GitHub unter einer OpenSource-Lizenz verfügbar ist.
Auch hier gilt: wer mehr wissen möchte, spricht uns gerne jederzeit an oder schickt uns eine E-Mail.