KI-Update kompakt: Grok, GPT-4-Konkurrent, Roboter-Tests, Biowaffen, Palantir

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Von
  • The Decoder
Inhaltsverzeichnis

Elon Musk hat bei X angekündigt, dass sein KI-Unternehmen xAI Grok noch in dieser Woche als Open-Source verfügbar machen möchte. Details zu den freigegebenen Komponenten und dem Umfang sind noch unklar. Grok basiert auf Grok-1, dem ersten großen Sprachmodell von Musks KI-Firma x.AI. Grok-1 hat eine Kontextlänge von 8192 Token und erreicht in Benchmarks das Leistungsniveau von GPT-3.5, das mittlerweile von vielen Open-Source-Modellen erzielt wird. Grok soll politisch neutraler als andere KI-Modelle wie ChatGPT sein, womöglich lassen sich mit dem Modell also auch leichter problematische Inhalte erstellen.

Die Ankündigung fällt in eine Zeit, in der Musk OpenAI, ein Unternehmen, das er mitbegründet hat, verklagt. Musk wirft OpenAI vor, von seiner ursprünglichen Mission abgewichen zu sein und nicht mehr offen zu sein. E-Mails zeigen, dass Musk die alleinige Kontrolle oder die KI-Entwicklung als Teil von Tesla anstrebte, um mit Google konkurrieren zu können. OpenAI entgegnet, dass Musk der Entscheidung zugestimmt habe, weniger offen zu sein und Forschungsergebnisse geheim zu halten.

Die Open-Source-Freigabe von Grok könnte das Interesse an xAIs KI-Technologie steigern und möglicherweise externe Weiterentwicklungen fördern. Eine ähnliche Strategie verfolgt aktuell Meta erfolgreich mit Llama 2.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das KI-Start-up Inflection hat Inflection-2.5 eingeführt, ein Sprachmodell, das sich der Leistung von GPT-4 annähern soll. Inflection-2.5, das in den KI-Assistenten "Pi" integriert ist, erreicht bis zu 94 Prozent der GPT-4-Leistung und zeigt besonders in den STEM-Fächern Fortschritte gegenüber dem alten Modell.

In einigen Benchmarks schließt Inflection-2.5 mit speziellen Prompting-Methoden zu GPT-4 auf, in anderen liegt es zwischen GPT-3.5 und GPT-4.

Inflection AI wurde von LinkedIn-Gründer Reid Hoffman, Deepmind-Mitbegründer Mustafa Suleyman und dem ehemaligen Deepmind-Forscher Karén Simonyan gegründet. Das Start-up möchte Code durch natürliche Sprache ersetzen und hat Investitionen von Unternehmen wie Microsoft und Nvidia sowie Einzelpersonen wie Bill Gates und Eric Schmidt erhalten.

Das Bundesministerium für Wirtschaft und Klimaschutz plant, ein interdisziplinäres Prüf- und Testzentrum für KI-basierte Roboter zu errichten, wie das Wirtschaftsmagazin Capital berichtet. Ziel ist es, "Sicherheitsstandards made in Germany" zu etablieren und nationale sowie internationale Normen, Teststandards und Zertifizierungskompetenz für KI-Roboter zu entwickeln. Die Pläne gehen auf den Zukunftsrat des Bundeskanzlers zurück, dem unter anderem SAP-CEO Christian Klein, Biontech-Mitgründerin Özlem Türeci und Dirk Hoke von Volocopter angehören.

Das geplante Zentrum soll auf mehrere Standorte verteilt sein und sich am europäischen Fahrzeugsicherheitsprogramm Euro NCAP orientieren. Jedoch gebe es in der Wirtschaft zunehmende Befürchtungen hinsichtlich einer möglichen Überregulierung durch das Testzentrum, heißt es weiter.

Capital verweist auf ein EU-Projekt zur Erarbeitung regulatorischer Anforderungen für KI und Robotik im Gesundheitswesen, das von der Berliner Charité koordiniert wird, sowie auf das Digitalministerium unter Volker Wissing (FDP), das einen KI-TÜV mit einheitlichen Qualitäts- und Prüfstandards vorantreibt. Zudem haben sich die EU-Mitgliedstaaten bereits auf einen AI Act zur KI-Regulierung geeinigt.

Eine internationale Gruppe von Wissenschaftlern hat sich für verantwortungsvolle Praktiken beim KI-gestützten Proteindesign ausgesprochen. Die Wissenschaftler, darunter Nobelpreisträgerin Frances Arnold und Turing-Preisträger Yann LeCun, fordern verantwortungsvolles KI-gestütztes Proteindesign, um die Entwicklung von Biowaffen zu verhindern. In einer Erklärung betonen die 131 Unterzeichner das Potenzial von KI-Technologie und fordern proaktives Risikomanagement.

Die Gruppe verpflichtet sich, Forschung ausschließlich zum Wohle der Gesellschaft zu betreiben und gefährliche Praktiken zu vermeiden. Ebenso sollen DNA-Synthesedienstleistungen nur von Anbietern bezogen werden, die standardisierte Biosicherheitsprüfungen durchführen. Auch die kontinuierliche Evaluierung von KI-Software und die Identifizierung von Sicherheitsrisiken sind Teil der Selbstverpflichtung.

Die Gruppe erkennt die Notwendigkeit an, den Zugang zu KI-Systemen einzuschränken, die ungelöste Risiken bergen. Die Wissenschaftler argumentieren jedoch auch, dass das größere Risiko nicht in der KI selbst liegt, sondern in der Ausrüstung zur Herstellung neuen genetischen Materials. Daher fordern sie neben Sicherheits- und Zuverlässigkeitsprüfungen für neue KI-Modelle auch Sicherheitsmaßnahmen für DNA-Produktionsanlagen.

Eine OpenAI-Studie ergab kürzlich, dass große Sprachmodelle wie GPT-4 die Entwicklung von Biowaffen nur geringfügig erleichtern, da die benötigten Informationen relativ leicht im Internet zu finden sind.

Das US-Militär hat dem Big-Data-Unternehmen Palantir einen Auftrag in Höhe von 178,4 Millionen US-Dollar für die Entwicklung einer beweglichen Bodenstation namens Tactical Intelligence Targeting Access Node (Titan) erteilt. Das System soll die automatisierte Zielerfassung mithilfe von KI und Maschinenlernen vorantreiben und Präzisionsschüsse über große Entfernungen ermöglichen. Titan ist als großer Truck konzipiert, der auf "Weltraum-, Höhen-, Luft- und terrestrische Sensoren" zugreifen kann, um verwertbare Zielinformationen für eine "verbesserte Missionsführung und Präzisionsfeuer" zu liefern. Die Technologie soll die Zeitspanne zwischen Sensor und Schütze verkürzen und ein einheitliches Lagebild schaffen.

Palantir-Chef Alex Karp erklärte, Titan sei die logische Erweiterung von Maven, einem umstrittenen Projekt zum Einsatz von maschinellem Lernen und KI-Systemen zur Unterscheidung von Menschen und Objekten in Drohnenaufnahmen. Das Pentagon arbeitet trotz Kritik mit Hochdruck daran, Gefechtsfeldzentralen mit KI aufzurüsten.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(vbr)