Lab-Releases
AlphaGenomeDecode: DeepMinds KI-System zur Krankheitsvorhersage durch Genomanalyse
DeepMind hat mit AlphaGenomeDecode ein neues KI-System vorgestellt, das genetische Daten analysiert, um Krankheiten präzise zu identifizieren. Das System nutzt fortschrittliche Machine Learning-Algorithmen zur Dekodierung komplexer genomischer Muster.
Mehr lesen →
Meta stellt vier MTIA-Generationen in zwei Jahren vor: Milliardenschwere KI-Infrastruktur
Meta hat vier Generationen seiner hauseigenen MTIA-KI-Chips (300, 400, 450, 500) entwickelt, die zwischen 2026 und 2027 eingesetzt werden sollen. Die Chips sind speziell für verschiedene KI-Arbeitslasten optimiert - von Empfehlungsalgorithmen bis hin zu generativer KI-Inferenz. Meta verfolgt einen iterativen Ansatz mit kürzeren Entwicklungszyklen, um sich schneller an die Entwicklung von KI-Modellen anzupassen.
Mehr lesen →
Meta präsentiert MTIA-Chip-Fortschritte und KI-Forschungsupdates
Meta veröffentlicht Updates zu ihrer KI-Forschung, einschließlich Fortschritten bei MTIA-Chips für skalierbare KI-Infrastruktur. Das Unternehmen stellt auch neue Tools und Anwendungen vor, von Computer Vision bis hin zu Open-Source-Entwicklerwerkzeugen.
Mehr lesen →
Meta stellt Canopy Height Maps v2 vor: Präzise KI-basierte Waldkartierung
Meta hat in Zusammenarbeit mit dem World Resources Institute Canopy Height Maps v2 (CHMv2) veröffentlicht, ein Open-Source-Modell für die weltweite Waldkartierung. Das auf DINOv3 basierende System verbessert die Genauigkeit der Baumhöhenmessung erheblich und erreicht einen R²-Wert von 0,86 gegenüber 0,53 der Vorgängerversion.
Mehr lesen →
Meta DINO hilft britischer Regierung bei Waldüberwachung und Grünflächenplanung
Forest Research nutzt Metas Computer-Vision-Modell DINOv2 zur präziseren Kartierung von Bäumen und Waldflächen in England. Das KI-Modell soll dabei helfen, die ehrgeizigen Umweltziele der britischen Regierung zu erreichen, wonach jeder Einwohner maximal 15 Gehminuten von einer Grünfläche entfernt leben soll.
Mehr lesen →
Meta KI-Modelle revolutionieren medizinische Notfalltriage bei DARPA-Herausforderung
Die University of Pennsylvania nutzt Metas SAM und DINO KI-Modelle für autonome Verletzungserkennnung bei Massenunfällen. Das PRONTO-Team entwickelt Robotersysteme, die in einer dreijährigen DARPA-Herausforderung Opfer unter extremen Bedingungen identifizieren und bewerten können.
Mehr lesen →
USRA nutzt Metas Segment Anything Model für Hochwasser-Notfallsysteme
Die Universities Space Research Association (USRA) arbeitet mit Meta zusammen, um SAM für die Überwachung von Gewässern und Hochwasservorhersage einzusetzen. Das KI-Modell automatisiert die Erkennung von Wassergrenzen in Drohnen- und Satellitenbildern, wodurch zeitaufwändige manuelle Analysen ersetzt werden. Die Technologie wird bereits in mehreren US-Wasserbeobachtungssystemen getestet und zeigt vielversprechende Ergebnisse für die landesweite Implementierung.
Mehr lesen →
Meta stellt SAM Audio vor: Erstes multimodales KI-Modell für Audio-Separation
Meta hat SAM Audio vorgestellt, ein bahnbrechendes KI-Modell, das jede Art von Sound aus komplexen Audio-Mischungen isolieren kann - durch Text, visuelle Hinweise oder Zeitmarkierungen. Das Modell basiert auf dem Perception Encoder Audiovisual (PE-AV) und erreicht State-of-the-Art-Leistung bei verschiedenen Audio-Separationsaufgaben. Zusätzlich wurden SAM Audio-Bench und SAM Audio Judge als erste Benchmarks und Bewertungsmodelle für Audio-Separation veröffentlicht.
Mehr lesen →
Conservation X Labs nutzt SAM 3 für Überwachung bedrohter Tierarten
Conservation X Labs und die Florida Fish and Wildlife Conservation Commission setzen Metas neues Segment Anything Model 3 (SAM 3) ein, um bedrohte Tierarten wie Pumas in Florida zu überwachen. SAM 3 kann Objekte in Videos durch einfache Textbeschreibungen erkennen, segmentieren und verfolgen. Zusätzlich wurde der öffentliche SA-FARI-Datensatz mit über 10.000 Kamerafallen-Videos von mehr als 100 Tierarten erstellt.
Mehr lesen →
Meta setzt ExecuTorch für On-Device AI in Reality Labs Geräten ein
Meta nutzt seine Open-Source-Inference-Engine ExecuTorch für KI-Anwendungen auf VR-Headsets und AR-Brillen der Reality Labs Division. Die Technologie ermöglicht lokale KI-Verarbeitung für Funktionen wie Hand-Tracking, Tiefenschätzung und Szenenverständnis direkt auf den Geräten. ExecuTorch bietet einen PyTorch-nativen Workflow ohne aufwändige Modellkonvertierung.
Mehr lesen →
Meta stellt SAM 3D vor: KI-Modelle für 3D-Rekonstruktion aus einzelnen Bildern
Meta hat SAM 3D vorgestellt, eine neue Familie von KI-Modellen, die aus einzelnen 2D-Bildern detaillierte 3D-Rekonstruktionen von Objekten und menschlichen Körpern erstellen können. Die Modelle SAM 3D Objects und SAM 3D Body setzen neue Standards für die 3D-Rekonstruktion in realen Szenarien und werden bereits in Facebook Marketplace's neuer "View in Room"-Funktion eingesetzt.
Mehr lesen →
Meta veröffentlicht SAM 3: KI-Modell für präzise Objekt-Segmentierung in Bildern und Videos
Meta stellt das Segment Anything Model 3 (SAM 3) vor, ein einheitliches KI-Modell für Objekterkennung, -segmentierung und -verfolgung in Bildern und Videos mittels Text-, Beispiel- und visueller Eingaben. Zusätzlich wird der Segment Anything Playground als experimentelle Plattform und SAM 3D für 3D-Rekonstruktion aus einzelnen Bildern veröffentlicht.
Mehr lesen →
Meta stellt Omnilingual ASR vor: Spracherkennung für über 1.600 Sprachen
Meta hat Omnilingual ASR veröffentlicht, ein bahnbrechendes System für automatische Spracherkennung, das über 1.600 Sprachen unterstützt, darunter 500 unterrepräsentierte Sprachen. Das System basiert auf einem 7-Milliarden-Parameter wav2vec 2.0 Modell und erreicht state-of-the-art Performance mit Zeichenfehlerraten unter 10% für 78% der unterstützten Sprachen.
Mehr lesen →
Orakl Oncology nutzt Metas DINOv2 für Krebsforschung mit Organoiden
Das französische Startup Orakl Oncology nutzt Metas Open-Source-Modell DINOv2, um aus Bildern von Krebs-Organoiden Patientenreaktionen auf Therapien vorherzusagen. Das Computer Vision-Modell verbesserte die Genauigkeit um 26,8% gegenüber anderen Techniken und beschleunigt die Krebsforschung erheblich.
Mehr lesen →
Meta stellt Llama 3.2 mit Vision-Fähigkeiten vor
Meta hat auf der Connect 2024 Konferenz Llama 3.2 vorgestellt, eine Modellsammlung mit neuen Vision-Fähigkeiten und leichtgewichtigen Varianten für mobile Geräte. Zur Sicherheit wurde Llama Guard Vision als Moderationstool für Text- und Bildinhalte entwickelt und umfangreiche Red-Team-Tests durchgeführt.
Mehr lesen →KI-News direkt ins Postfach
Jeden Morgen um 8:30 Uhr — die wichtigsten KI-Nachrichten zusammengefasst.