Windows-Subsystem, Copilot Beide Stark Open Source: Welche Überraschungen Hat Uns Microsoft Bei Seinem Spätabend-Event Beschert?

Bild

Zusammengestellt von | Tu Min

Herausgegeben von | CSDN (ID: CSDNnews)

Jedes Frühsommer begrüßt die Tech-Szene eine Welle von „Neuheiten-Shows“, insbesondere Mai und Juni, die fast schon zu einem „kleinen Frühlingsfest“ für Entwickler geworden sind – Microsoft Build, Google I/O, Apple WWDC treten nacheinander auf und bringen eine Menge neuer Technologien und Werkzeuge mit, um auf jede erdenkliche Weise die Aufmerksamkeit der Entwickler auf sich zu ziehen. Dieses Jahr machte Microsoft den Anfang, die Build 2025 Konferenz startete am 20. Mai um 00:05 Uhr.

Auf dieser Konferenz traten Microsoft CEO Satya Nadella und CTO Kevin Scott persönlich auf. Überraschenderweise „erschienen“ auch der OpenAI CEO Sam Altman und der Tesla CEO Elon Musk, die sich bisher nicht besonders gut verstanden haben, sowie Nvidia CEO Jensen Huang auf der Konferenz, allerdings nur per Online-Video-Schaltung, und führten kurze Gespräche mit Nadella zu Themen wie Zusammenarbeit, große Modelle und Chips.

Insgesamt ist KI zweifellos Microsofts wichtigste strategische Ausrichtung. Doch in diesem Jahr wurde „Open Source“ zu einem weiteren wichtigen Stichwort, das sich durch die gesamte Veranstaltung zog. Nicht nur die Kernfunktionen von Copilot in VS Code wurden geöffnet, sondern auch das Windows-Subsystem für Linux (WSL) wurde überraschenderweise großflächig als Open Source freigegeben!

Bild

Neben diesen wichtigen Ankündigungen gab es auf dieser Konferenz natürlich noch viele weitere bemerkenswerte technologische Innovationen von Microsoft. Von der Produktexperience bis hin zu den grundlegenden Werkzeugen – welche neuen Veränderungen hat KI der gesamten Branche gebracht? Werfen wir einen Blick darauf, was auf dieser Konferenz besprochen wurde.

Bild

Nadella Eröffnung

Eine kleine Episode war – nur wenige Minuten nachdem Nadella die Bühne betreten hatte, schienen einige Demonstranten versucht zu haben, die Veranstaltung zu stören, aber die Konferenz kehrte schnell zur Normalität zurück.

„Wir befinden uns im 'Mittelspiel' einer Plattformtransformation – alles beginnt schnell zu skalieren und sich zu beschleunigen“, beschrieb Nadella die aktuelle technologische Welle in seinen Eröffnungsworten. „Das ist ein bisschen so wie in den frühen 1990er Jahren, als die Web-Technologie gerade erst begann, oder wie der rasche Aufstieg von Cloud Computing und mobilem Internet in den 2000er Jahren.“

Er wies darauf hin, dass wir im aktuellen Jahr 2025 eine völlig neue Ära der Web-Expansion erleben. „Ausgehend von den ersten integrierten Technologie-Stack-Produkten sind wir in eine Phase der cloud-unterstützten, offeneren und erweiterbaren Web-Architektur eingetreten.“

In Bezug auf Entwicklertools zum Erstellen von Software zeigen Daten, dass die Visual Studio-Produktfamilie derzeit über 15 Millionen Benutzer hat, GitHub über 150 Millionen Entwickler und die Benutzerzahl von GitHub Copilot ebenfalls 15 Millionen überschritten hat. Nadella ist diesbezüglich sehr zuversichtlich: „All das, das ist erst der Anfang.“

Bild

Bild

Microsoft verbessert kontinuierlich die Werkzeuge für Entwickler

Derzeit verbessert Microsoft diese Werkzeuge ständig: Visual Studio erhält mehrere Funktionsupdates, darunter Unterstützung für .NET 10, die Einführung einer Live-Vorschau und einer flüssigeren Design-Time-Erfahrung, verbesserte Git-Tools sowie einen neuen Debugger für die plattformübergreifende Entwicklung. Der Update-Rhythmus wird ebenfalls auf eine monatliche stabile Version angepasst, damit Entwickler neue Funktionen schneller erhalten. VS Code hat gerade seine 100. Open-Source-Version veröffentlicht und die Unterstützung für mehrere Fenster hinzugefügt. Entwickler können jetzt direkt im Editor gestagte Inhalte anzeigen und verwalten. Im Bereich GitHub treibt Microsoft die tiefe Integration von KI und Open Source voran. Es wurde angekündigt, dass die Copilot-Erweiterung in VS Code als Open Source (https://github.com/microsoft/vscode) freigegeben wird und diese KI-gesteuerten Funktionen direkt in den Kern-Code von VS Code integriert werden, wodurch KI zu einem Teil der Entwicklungserfahrung wird und die Grundlage für die kontinuierliche Weiterentwicklung von GitHub Copilot gelegt wird.BildZu GitHub Copilot erklärte Microsoft, dass es Entwicklern jetzt helfen kann, Versionsmigrationsaufgaben wie das Upgrade von Java 8 auf Java 21 oder von .NET Framework auf .NET 9 zu erledigen. Copilot übernimmt automatisch Abhängigkeitsupdates, schlägt Fixes vor und lernt aus den Änderungen der Entwickler, wodurch der gesamte Migrationsprozess reibungsloser und automatisierter wird. Microsoft kündigte außerdem die Einführung eines autonomen Agenten an, der speziell für Site Reliability Engineering (SRE)-Szenarien entwickelt wurde – den Azure SRE Agent. Dieser SRE-Agent startet automatisch, wenn ein Online-Ausfall auftritt, führt eine erste Fehlersuche durch, identifiziert die Ursache und versucht, das Problem zu beheben. Anschließend wird der Vorfallbericht als GitHub Issue mit vollständigen Vorschlägen zur Behebung protokolliert. Entwickler können diese Behebungsaufgaben weiter an GitHub Copilot delegieren, um eine automatisierte Closed-Loop-Operation zu erreichen.

Besonders erwähnenswert ist, dass Microsoft zum ersten Mal einen Coding Agent im vollständigen Sinne eingeführt hat, der Copilot von einem „konversationellen Programmierassistenten“ zu einem echten „kollaborativen Entwicklungspartner“ aufwertet.

Bild

Die Bedienung des neuen Coding Agent ist denkbar einfach: Weisen Sie einfach eine oder mehrere GitHub Issues Copilot zu, so wie Sie Aufgaben an einen Teamkollegen delegieren würden. Sie können dies auf der GitHub-Website, der mobilen App oder in der Befehlszeile tun. Darüber hinaus können Sie Anweisungen direkt über Copilot Chat in GitHub oder VS Code erteilen, zum Beispiel:

@github Open a pull request to refactor this query generator into its own class

Sobald eine Aufgabe empfangen wurde, antwortet der Coding Agent mit einem 👀-Emoji und startet den Workflow im Hintergrund: Er startet eine virtuelle Maschine, klont das Code-Repository, konfiguriert die Umgebung und analysiert den Code mithilfe der durch GitHub Code Search gesteuerten erweiterten Retrieval (RAG)-Technologie.

Während des Arbeitsprozesses pusht dieser Agent kontinuierlich Änderungen in Form von Git-Commits an einen Entwurf-Pull Request und aktualisiert die Beschreibung. Gleichzeitig können Sie seine Begründungs- und Validierungsschritte im Sitzungsprotokoll sehen, was es einfach macht, seinen Gedankengang zu verfolgen und Probleme zu identifizieren.

Mit dem Model Context Protocol (MCP) können Sie auch externe Daten und Fähigkeiten in den Agenten einbinden. Sie können einen MCP-Server in den Einstellungen Ihres Code-Repositories konfigurieren oder den offiziellen GitHub MCP Server direkt aufrufen, um Daten zu erhalten. Darüber hinaus kann der Agent dank der Unterstützung von visuellen Modellen auch Bilder in GitHub Issues „verstehen“, einschließlich Screenshots von Bugs oder Entwürfen von Features.

Wenn die Aufgabe abgeschlossen ist, markiert Copilot Sie zur Überprüfung. Sie können Änderungsvorschläge hinterlassen, und der Agent liest automatisch die Kommentare und schlägt entsprechende Code-Updates vor. Er kombiniert auch relevante Issue- oder PR-Diskussionsinhalte sowie benutzerdefinierte Anweisungen im Projekt, um sicherzustellen, dass er Ihre Absicht versteht und Projektkonventionen befolgt.

Bild

Auf der Konferenz führte Nadella selbst eine Live-Demo durch und erlebte diesen Coding Agent intensiv:

Bild

Diese Funktion steht derzeit Benutzern von Copilot Enterprise und Copilot Pro Plus zur Verfügung.

Als Nadella die Erweiterung des „Agenten-Ökosystems“ diskutierte, erwähnte er ausdrücklich OpenAI’s Codex Agent, der gerade erst letzte Woche Freitag veröffentlicht wurde, und lud OpenAI CEO Sam Altman per Fernschaltung zu einem Gespräch ein, um zu diskutieren, wie sich die Softwareentwicklung mit der Beteiligung verschiedener intelligenter Agenten weiterentwickeln kann.

Bild

Nadella: Sam, letztendlich ist unser gemeinsames Ziel, mehr „Intelligenz“ in die Welt zu bringen. In gewisser Weise streben wir danach, für jeden Dollar und jeden Watt Energie so viel Rechenleistung wie möglich zu liefern. Ich würde gerne Ihre Meinung zu dieser Richtung hören, vielleicht können wir mit unserem alten Thema „Mooresches Gesetz“ beginnen.

Sam Altman: Das war tatsächlich der Weg, den wir uns bereits 2021 vorgestellt hatten, als wir die erste Version von Codex veröffentlichten. Damals haben wir mit dem GitHub-Team zusammengearbeitet, und eines der ursprünglichen Ziele war es, irgendwann eine multimodale, kollaborative Entwicklungsplattform aufzubauen, die KI zu einem echten „virtuellen Partner“ für jeden Entwickler macht.

Heute haben wir diesen Schritt endlich gemacht, und eine solche Coding-Agent-Erfahrung zu erreichen, ist für mich immer noch etwas Unglaubliches. Ich denke, dies ist eine der transformativsten Programmiermethoden, die ich je gesehen habe. Entwickler können jetzt wirklich einen „virtuellen Teamkollegen“ haben, der Aufgaben entgegennehmen kann – Sie können ihn die Arbeit fortsetzen lassen, die Sie gerade gemacht haben, oder Sie können ihn komplexere Aufgaben übernehmen lassen. Vielleicht können Sie eines Tages sogar zu ihm sagen: „Ich habe eine kühne Idee, nimm dir ein paar Tage Zeit, um sie umzusetzen.“

Und das ist erst der Anfang, die Zukunft wird nur noch leistungsfähiger. Am aufregendsten ist, dass es bereits tief in GitHub integriert ist. Sie können ihm den Zugriff auf bestimmte Code-Repositories und Laufzeitumgebungen erlauben, und dann kann es wirklich erstaunliche Arbeit leisten. Entwickler können jetzt mit KI-Programmieragenten natürlich zusammenarbeiten, während sie ihren vollständigen Denkfluss beibehalten, so wie sie mit einem menschlichen Partner zusammen entwickeln würden. Und der gesamte Entwicklungsprozess und Lebenszyklus wurde dadurch erheblich beschleunigt.

Nadella: Ihr Team treibt auch die Entwicklung vieler Modelle gleichzeitig voran, und sie zeigen eine ausgezeichnete Leistung. Wir haben auch die Möglichkeit, die verschiedenen Modelle, die Sie entwickeln, sofort zu erleben. Können Sie uns mitteilen, welche spannenden neuen Fortschritte auf der Modell-Roadmap anstehen?

Sam Altman: Unsere Modelle sind bereits sehr intelligent und werden sich weiterentwickeln. Aber ich denke, der aufregendste Punkt ist, dass sie immer benutzerfreundlicher werden. Zukünftig müssen Sie nicht mehr zwischen einem Haufen von Modellen auswählen, sie werden automatisch vernünftige Entscheidungen treffen, zuverlässiger sein und ihr Anwendungsbereich wird breiter sein.

Gleichzeitig werden die Modelle mehr Fähigkeiten besitzen, wie natürlichere multimodale Interaktionen, stärkere Werkzeugaufruffähigkeiten und reichere Integrationsmethoden. Wir wollen, dass es sich immer mehr einem „Out-of-the-box“-Erlebnis nähert. Sie können direkt mit ihm sprechen, es komplexe Programmieraufgaben erledigen lassen und ihm wirklich vertrauen. Ich glaube, Sie werden von der Geschwindigkeit überrascht sein, mit der wir in diesen Richtungen Fortschritte machen.

Nadella: Haben Sie Ratschläge für Entwickler, die große, hochverfügbare, zustandspersistente Agenten-Anwendungen erstellen? Schließlich sind Sie in diesem Bereich bereits führend.

Sam Altman: Ich denke, die größte Herausforderung ist, wie man mit der Geschwindigkeit der technologischen Entwicklung umgeht. Blicken Sie zurück auf das, was vor zwei Jahren, vor einem Jahr möglich war, und sehen Sie, was heute schon erreicht wurde, und stellen Sie sich vor, was in ein, zwei Jahren noch möglich sein wird – das ist ein echter Kapazitätssprung.

Wir müssen uns auf diesen Sprung vorbereiten, neu überdenken, wie Menschen Produkte erstellen, Software entwickeln, Unternehmen gründen und neue Werkzeuge und Workflows aktiv annehmen. Solch tiefgreifende technologische Veränderungen sind historisch nicht häufig, aber jedes Mal, wenn Sie sich frühzeitig voll darauf einlassen, ist es wahrscheinlicher, dass Sie die größten Gewinne erzielen.

Darauf aufbauend sagte Nadella: „Jetzt ist eine großartige Zeit, um Entwickler zu sein, denn diese Werkzeuge werden immer leistungsfähiger. Aber noch wichtiger ist, dass es nicht nur um ein Werkzeug, einen Agenten oder eine Form geht – der Schlüssel ist, dass all diese Elemente zusammenkommen, um jedem Einzelnen, jedem Softwareentwicklungsteam, zu ermöglichen, seine Fähigkeiten und Kreativität besser auszudrücken.“

Bild

KI „rettet“ Arbeiter, der brandneue Microsoft 365 Copilot ist da!

Auf dieser Build-Konferenz hat Microsoft die Microsoft 365-Plattform umfassend aktualisiert. Der Fokus lag auf der Optimierung des Designs der Chat-, Such-, Notizbuch-, Erstellungswerkzeuge und Agenten-Oberflächen, die jetzt sehr übersichtlich aussehen.

Bild

Die auffälligste neue Funktion ist die Einführung von Microsoft 365 Copilot Tuning, eine „Low-Code“-Methode. Sie ermöglicht es Unternehmen, Agenten basierend auf ihren eigenen Daten, Prozessen und ihrem Sprachstil anzupassen und einen Copilot zu erstellen, der wirklich den geschäftlichen Anforderungen entspricht.

Mit anderen Worten, das Ziel von Microsoft scheint nicht darin zu bestehen, die Verbraucher von OpenAI’s ChatGPT-Modell (das Copilot unterstützt) abhängig zu machen, sondern jedem Unternehmen zu ermöglichen, „seinen eigenen Copilot“ zu haben. Diese angepassten intelligenten Agenten können die gewohnten Ausdrucksweisen und den Kommunikationston des Unternehmens lernen und sogar schrittweise branchenspezifisches Fachwissen erwerben.

Bisher erforderte der Aufbau solcher personalisierten Modelle oft spezialisierte Datenwissenschaftsteams, komplexe Bereitstellungen und langwierige Entwicklungszyklen. Jetzt können Unternehmen durch die Konfiguration einer Basiskonfiguration und die Bereitstellung weniger Referenzmaterialien schnell mit dem Anpassungsprozess beginnen. Das Modell erbt automatisch die vorhandenen Datenberechtigungseinstellungen, um sicherzustellen, dass Inhalte nur für autorisierte Benutzer sichtbar sind. Nach Abschluss der Anpassung kann das Modell direkt in Copilot integriert und nach Bedarf an bestimmte Benutzergruppen verteilt werden. Beispielsweise kann eine Anwaltskanzlei eine Anpassung basierend auf eigenen Fällen und Dokumentenstilen vornehmen, um sicherzustellen, dass die generierten Inhalte professionellen Anforderungen besser entsprechen.

Microsoft betonte, dass diese Modelle und Agenten innerhalb der Dienstgrenzen von Microsoft 365 ausgeführt werden und keine Kundendaten zum Trainieren der Basismodelle verwenden, wodurch Datensicherheit und Compliance gewährleistet werden. Derzeit wird das Early Experience Program für Copilot Tuning im Juni starten.

Microsoft erwähnte auch ausdrücklich, dass wir dank der Rückschlussfähigkeiten von Copilot Studio und intelligenten Agenten nun intelligente Agenten erstellen können, die den Geschäftskontext verstehen und über Multitasking-Koordinationsfähigkeiten verfügen, um verschiedenen Rollen und Geschäftsprozessen eine echte „automatisierte Koordination“ zu ermöglichen. Unter dieser Vision könnte zukünftig jede Geschäftsanwendung in Form eines „Multi-Agenten-Workflows“ neu definiert werden.

Bild

KI-Agenten-Fabrik

Der Aufbau hervorragender intelligenter Agenten und Anwendungen erfordert nicht nur hervorragende Modelle, sondern auch vollständige Systemunterstützung. Azure AI Foundry ist eine einheitliche Plattform, auf der Entwickler KI-Anwendungen und Agenten entwerfen, anpassen und verwalten können. Auf dieser Konferenz stellte Microsoft mehrere Innovationen vor.

Bild

Erstens wurde die Modellbibliothek erweitert. Neu hinzugekommen ist xAI’s Grok 3 von Elon Musk, und in Kürze werden auch Black Forest Labs Flux Pro 1.1 sowie Sora, das bald über Azure OpenAI in Foundry Models als Vorschau verfügbar sein wird, hinzugefügt.

Bild

Auf der Konferenz schaltete Nadella zu Musk.BildNadella: Elon, vielen Dank, dass Sie zur Build-Konferenz gekommen sind. Ich erinnere mich, dass Sie ursprünglich bei Microsoft ein Praktikum gemacht haben und ein Windows-Entwickler waren. Sie sind doch immer noch ein PC-Gaming-Fan, oder? Können Sie uns etwas über Ihre Erfahrungen auf der Windows-Plattform damals erzählen und über einige Projekte, die Sie entwickelt haben?

Elon Musk: Tatsächlich habe ich, bevor ich mit Windows in Berührung kam, mit MS-DOS angefangen. Ich hatte einen frühen IBM PC, anfangs nur mit 128K Speicher, den ich später selbst auf 256K erweitert habe. Damals hielt ich das für ein riesiges Upgrade. Ich habe einige kleine Spiele mit DOS geschrieben. Dann kam die Windows-Ära – erinnern Sie sich noch an Windows 3.1? Das war eine unvergessliche Phase.

Nadella: Ich erinnere mich, dass wir bei unserem letzten Gespräch über die komplexen Mechanismen von Active Directory gesprochen haben. Es ist wirklich toll, dass Sie heute zu unserer Entwicklerkonferenz kommen. Eines der aufregendsten Dinge für uns ist, dass Grok bald auf Azure veröffentlicht wird. Ich weiß, dass Sie ein tiefes Verständnis für die Zukunft der KI haben, und das ist auch der Grund, warum Sie Grok entwickelt haben. Diese Modellfamilie verfügt sowohl über Reaktions- als auch über Inferenzfähigkeiten, und Sie haben eine sehr aufregende Entwicklungs-Roadmap. Können Sie uns Ihre Vision mitteilen und wie Sie die Fähigkeiten und die Effizienz des Modells verbessern?

Elon Musk: Was Grok betrifft, insbesondere das bevorstehende Grok 3.5, versuchen wir, das Modell dazu zu bringen, aus „ersten Prinzipien“ zu folgern – das heißt, KI mit der Denkweise der Physik zu konstruieren. Wenn wir zum Beispiel die Wahrheit erforschen, versuchen wir, ein Problem in seine grundlegendsten, zuverlässigsten axiomatisierbaren Elemente zu zerlegen, dann davon ausgehend abzuleiten und schließlich diese Prinzipien zur Überprüfung der Schlussfolgerung zu verwenden.

So wie in der Physik, wenn Sie eine Theorie vorschlagen, die gegen das Gesetz der Energieerhaltung oder des Impulserhaltung verstößt, dann bereiten Sie sich entweder auf den Nobelpreis vor, oder Sie haben sich geirrt – und höchstwahrscheinlich letzteres.

Deshalb hoffen wir, durch die Einführung dieser physikalischen Methoden Grok näher an ein „Fehler-minimierendes Inferenzsystem“ zu bringen. Wir wissen, dass KI nicht perfekt sein kann, aber wir bemühen uns, bei jeder Inferenz so nah wie möglich an die Fakten zu kommen, und gleichzeitig in der Lage zu sein, Abweichungen schnell zu korrigieren. Ich verfolge die KI-Sicherheit stets mit hoher Aufmerksamkeit, und der Satz „Ehrlichkeit ist die beste Politik“ gilt auch in diesem Bereich.

Wir legen großen Wert auf das Feedback der Entwickler-Community. Wir möchten wissen, was Sie wirklich brauchen und wo wir uns noch verbessern können. Grok soll ein Werkzeug sein, das Entwickler gerne nutzen und das ihre Effizienz steigert, und dieser Prozess erfordert Ihre Beteiligung.

Nadella: Wir sind sehr gespannt, wie die Entwickler-Community Grok nutzen wird und wie es sich in ihre Produkte und Arbeitsabläufe integrieren wird. Vielen Dank, Elon, dass Sie sich heute die Zeit genommen haben, sich uns anzuschließen. Wir freuen uns sehr auf diese Zusammenarbeit und heißen Grok auf Azure willkommen.

Musk: Ebenso. Vielen Dank für die Einladung zu dieser Veranstaltung. Ich möchte noch einmal betonen, dass wir das Feedback von Entwicklern sehr begrüßen. Welche Fähigkeiten sollen Modelle besitzen? Welche Bereiche müssen verbessert werden? Sagen Sie es uns, und wir werden unser Bestes tun, um es umzusetzen.

Zweitens, angesichts des immer reichhaltigeren Modell-Ökosystems wird die Modellauswahl immer komplexer. Aus diesem Grund hat Microsoft den brandneuen Model Router eingeführt, der basierend auf der Aufgabe automatisch das am besten geeignete OpenAI-Modell auswählt und den Nutzungsprozess für Entwickler vereinfacht. Früher konnte eine Anwendung oder ein Agent nur an ein Modell gebunden werden; jetzt wurde echte Unterstützung für mehrere Modelle realisiert.

Drittens wurde der Foundry Agent Service offiziell veröffentlicht (GA), der es Entwicklern ermöglicht, mit sehr wenig Code mehrere KI-Agenten zu erstellen, die zusammenarbeiten können, z. B. bei der Bearbeitung eines komplexen Prozesses, bei dem mehrere Sub-Agenten die Aufgaben arbeitsteilig erledigen.

Viertens unterstützt Azure AI Foundry nun die Orchestrierung mehrerer Agenten, nicht nur für Azure, sondern auch für AWS, Google Cloud und lokale Bereitstellungen. Entwickler können mehrere Agenten wie ein „Team“ zusammenarbeiten lassen, um komplexe Aufgaben zu erledigen, sich gegenseitig aufrufen und Informationen über offene Standards wie A2A und MCP übertragen, um die plattformübergreifende Zusammenarbeit zu realisieren. Dieses System führt auch Zustandsverwaltung, Fehlerbehandlung und Unterstützung für Langzeitprozesse ein und eignet sich sehr gut für komplexe Szenarien wie Finanzgenehmigung und Lieferketten. Gleichzeitig integriert Microsoft Semantic Kernel und AutoGen-Frameworks, um eine einheitliche Unterstützung für die Orchestrierung mehrerer Agenten zu bieten.

Fünftens sind Leistung, Sicherheit und Kosten oft die größten Anliegen von Unternehmen bei der Implementierung von KI. Aus diesem Grund hat Microsoft in Azure AI Foundry die neue Generation der „Observability“-Funktion eingeführt. Entwickler können in einem einheitlichen Dashboard die Qualität, Reaktionszeit, Kosten und sogar die detaillierte Verfolgung der internen Ausführungslogik von Agenten einsehen. Dies wird Teams helfen, diese Agentensysteme sicherer zu nutzen.

Darüber hinaus hat Microsoft eine Vorschau auf die neue Foundry Observability-Funktion veröffentlicht, die Agenten eine End-to-End-Observability von der Entwicklung bis zur Produktion bietet. Entwickler können Latenz, Durchsatz, Nutzung und Ausgabequalität in Echtzeit überwachen und detaillierte Protokolle des Inferenzprozesses und der Werkzeugaufrufe jedes Agenten anzeigen.

Bild

Große Windows-Reform, WSL wird großflächig Open Source!

Wenn man über Microsoft spricht, kommt man um ein Betriebssystem nicht herum, nämlich Windows. Auf der Build 2025 Konferenz betonte Microsoft erneut die wichtige Rolle von Windows im KI-Zeitalter.

Sie kündigten eine neue Initiative an: Windows AI Foundry, deren Ziel es ist, Windows zur besten Plattform für die Erstellung von KI-Anwendungen zu machen.

Einfach ausgedrückt ist Windows AI Foundry eine Reihe von Tools und Plattformen, die Microsoft intern zur Entwicklung von KI-Funktionen wie Windows Copilot, Recall (KI-Gedächtnisfunktion) und Ein-Klick-Operationen verwendet. Diese Tools werden nun erstmals für Entwickler zugänglich gemacht und decken nicht nur bestimmte Geräte oder Chips ab. Egal, ob Sie CPU, GPU, NPU verwenden oder sogar in der Cloud laufen, Sie können Ihre eigenen KI-Anwendungen entwickeln und bereitstellen.

Bild

Eine wichtige Komponente ist Foundry Local, das eine bereits optimierte Modellbibliothek enthält. Entwickler können diese Open-Source-Modelle direkt lokal ausführen, völlig unabhängig von der Cloud. Zum Beispiel wird Microsofts eigenes kleines Sprachmodell Phi-Silica zukünftig direkt in das Windows-Betriebssystem eingebettet sein. Wenn Sie es für bestimmte benutzerdefinierte Aufgaben verwenden möchten, müssen Sie nur einen LoRA (leichter Adapter) hinzufügen, um schnell „feintunen“ zu können, anstatt das gesamte Modell neu zu trainieren.

Microsoft ist der Ansicht, dass Phi-Silica das Paradigma der KI-Inferenz auf dem PC verändern könnte und die lokale Ausführung von KI-Modellen so einfach wie das Aufrufen normaler Systemfunktionen machen wird. Entwickler können dadurch intelligentere Erfahrungen aufbauen, die näher am Benutzer sind und schneller reagieren.

Wenn Sie Ihr eigenes Modell erstellen, können Sie Windows ML verwenden, das ebenfalls eine integrierte KI-Inferenz-Laufzeit ist und eine vereinfachte, effiziente Modellbereitstellung auf CPU, GPU und NPU bietet.

Zusätzlich zu den Modellen selbst bietet Microsoft eine Reihe neuer APIs an, die es Entwicklern ermöglichen, die lokalen Daten der Benutzer in Vektoren umzuwandeln, sie in Modelle einzubetten und KI-Anwendungen mit „Kontextverständnis“ zu erstellen – wie z. B. hybride RAG-Systeme (Retrieval Augmented Generation). All dies wird auf dem Gerät des Benutzers durchgeführt, ohne Cloud-Abhängigkeit und ohne Daten hochzuladen, was den Anforderungen an den Datenschutz besser entspricht.

Um diese Anwendungen intelligenter mit dem System zu vernetzen, kündigte Microsoft außerdem an, dass Windows nativ MCP (Model Context Protocol) unterstützen wird. Dies bedeutet, dass Windows mehrere MCP-Dienste wie Dateisystem, Einstellungen, Fensterverwaltung usw. integrieren wird. Entwickler können MCP-kompatible Anwendungen erstellen und diese Dienste über die offizielle Registrierung verbinden. Microsoft wird diese Schnittstellen auch auf Leistung und Sicherheit prüfen, um die Benutzererfahrung und Datensicherheit zu gewährleisten.

Gleichzeitig waren viele Entwickler ziemlich begeistert, dass Windows Open Source intensiv annimmt, und die neueste Ankündigung, WSL vollständig Open Source zu machen, ist ein guter Beweis dafür.

Bild

Als Grund für die Open-Source-Freigabe gab Microsoft an, dass WSL erstmals 2016 vorgestellt wurde und zunächst die Unterstützung für Linux-Programme über lxcore.sys im Windows-Kernel realisierte, was als WSL 1 bezeichnet wurde. Mit höheren Anforderungen an die Kompatibilität führte Microsoft 2019 WSL 2 ein, das einen vollständigen Linux-Kernel enthielt und nach und nach Funktionen wie GPU, grafische Benutzeroberfläche und systemd unterstützte.

Bild

Um das Entwicklungstempo zu beschleunigen, trennte Microsoft WSL 2021 von Windows und veröffentlichte es als eigenständiges Paket im Microsoft Store und brachte 2022 die stabile Version 1.0 heraus. Seitdem hat Microsoft kontinuierlich Iterationen durchgeführt, um Benutzer zum vollständigen Übergang auf die neue Version zu bewegen, und hat mit WSL 2.0.0 wichtige Updates wie Netzwerk-Mirroring, Proxy-Unterstützung und Firewall-Kompatibilität eingeführt.

Die WSL-Community war stets die treibende Kraft hinter ihrer Entwicklung. Obwohl sie zuvor keinen Zugriff auf den Quellcode hatten, beteiligten sich viele Entwickler aktiv an der Fehlersuche, am Feedback und an Funktionsvorschlägen. Hierzu enthüllte Nadella, dass bereits zu Beginn des Projekts jemand in den Code-Repositorys den Wunsch nach Open Source für WSL geäußert hatte. Damals war WSL jedoch tief in das Windows-Systemimage eingebunden und konnte nicht separat isoliert werden. Mit der Architekturentwicklung hat Microsoft nun endlich die „lose Kopplung“ des Codes erreicht, und WSL 2 verfügt über die Fähigkeit zum unabhängigen Betrieb.

Nachdem WSL nun Open Source ist, kann die Community endlich direkt Code beitragen. Diese Veränderung wird voraussichtlich dazu beitragen, Windows weiter als ideale Umgebung für die plattformübergreifende Entwicklung zu etablieren.

Bild

WSL Architektur

Bei dieser Gelegenheit holte Microsoft „den alten Thread von damals“ hervor und markierte ihn offiziell als „gelöst“.

Bild

Bild

Mehr Roboter ins Web bringen

Auf dieser Konferenz stellte Microsoft CTO Kevin Scott ein Open-Source-Projekt vor – NLWeb (https://github.com/microsoft/NLWeb). Dies soll es Websites erleichtern, KI-Chatbots zu integrieren.

Bild

Einfach ausgedrückt, können Entwickler mit nur wenigen Codezeilen ein Dialogfeld und einen Senden-Button auf ihrer Website hinzufügen, ihr ausgewähltes KI-Modell integrieren und es mit ihren eigenen Daten kombinieren, um schnell „KI-Chat“-Funktionen zu realisieren. Zum Beispiel kann eine Einzelhandelswebsite mit NLWeb einen Bot für Outfit-Empfehlungen erstellen, um Kunden bei der Auswahl geeigneter Kleidung für Ausflüge zu helfen; eine Food-Website kann einen Chatbot erstellen, der Benutzern mitteilt, welche anderen Gerichte gut zu einem bestimmten Gericht passen.

Darüber hinaus kann eine Website, wenn sie möchte, Inhalte über NLWeb für AI-Plattformen freigeben, die den MCP-Standard unterstützen. Microsoft erklärte, dass es hofft, dass NLWeb „der HTML des Agentic Web“ wird – das heißt, so wie HTML die Struktur von Webseiten definiert, könnte NLWeb die neue Grundlage für KI-Modelle werden, um Web-Inhalte zu verstehen und zu nutzen.

Bild

Daten

Die Entwicklung der KI-Technologie ist untrennbar mit der Unterstützung großer Datenmengen verbunden, wie Nadella betonte: „Die Datenebene ist der Kern jeder KI-Anwendung.“

In diesem Zusammenhang kündigte Microsoft offiziell mehrere wichtige Updates für Datenprodukte an. Am meisten beachtet wird der bevorstehende SQL Server 2025, der sich derzeit in der öffentlichen Vorschau befindet. Dies ist eine wichtige Upgrade-Version von Microsofts Datenbanksystem, die integrierte, erweiterbare KI-Funktionen bietet, die Produktivität von Entwicklern steigert und nahtlos in Microsoft Azure und Microsoft Fabric integriert ist – all dies wird im SQL Server-Engine mit der vertrauten T-SQL-Sprache realisiert.

Noch bemerkenswerter ist jedoch, dass Microsoft Daten- und Intelligenzfähigkeiten auf beispiellose Weise miteinander verbindet. Zum Beispiel hat Microsoft die verteilten Datenbankdienste Azure Cosmos DB und Azure Databricks direkt in die Foundry-Agentenplattform integriert. Dies bedeutet, dass Entwickler Agenten dazu bringen können, Gesprächsverläufe natürlicher zu „merken“ und Daten effizienter für KI-Agenten bereitzustellen.

Als Kern des gesamten Datenstacks entwickelt sich auch die Fabric-Plattform, die Microsoft vor zwei Jahren eingeführt hat, ständig weiter. Dieses Jahr wurde auch Cosmos DB in das Fabric-System aufgenommen. Angesichts der Tatsache, dass KI-Modelle zunehmend unstrukturierte Daten wie Text, Bilder und Audio verarbeiten, ist diese Integration besonders wichtig. Benutzer können jetzt strukturierte und unstrukturierte Daten auf derselben Plattform einheitlich verwalten und sich auf KI-Anwendungen vorbereiten.

Darüber hinaus hat Microsoft auch den Digital Twin Builder in Fabric integriert. Benutzer können über eine visuelle Schnittstelle oder sogar ohne Code schnell digitale Zwillingssysteme erstellen. Gleichzeitig hat Microsoft die AI-gesteuerten Shortcut Transformations in OneLake eingeführt, die im Wesentlichen intelligente ETL (Extract-Transform-Load)-Tools sind. Mit vorgefertigten KI-Modulen wie Spracherkennung in Text, Stimmungsanalyse oder Zusammenfassungsgenerierung können Benutzer komplexe Datenvorverarbeitungsoperationen mit wenigen Klicks abschließen.

Schließlich kündigte Microsoft eine wichtige Funktion für alle Datenkonsumenten an: Copilot in Power BI. Diese neue Funktion ermöglicht es Benutzern, direkt über Konversationen mit Power BI-Berichten zu interagieren. Sie können Fragen in natürlicher Sprache stellen, und der intelligente Agent hilft Ihnen, Daten aus mehreren Berichten und Modellen zu extrahieren und visuelle Analysen zu generieren. Diese Funktion wird auch in Microsoft 365 Copilot eingeführt und die Grenzen zwischen Office-Anwendungen und Datenanalyse weiter aufheben.

Bild

Infrastruktur

In der heutigen Ära des explosiven Wachstums generativer KI sind Leistung, Latenz und Kosten fast zu den drei unüberwindbaren Herausforderungen für Entwickler geworden. Nadella erklärte dazu, dass es jetzt nicht nur darum geht, KI zum Laufen zu bringen, sondern das optimale Gleichgewicht zwischen Leistung, Energieeffizienz und Kosten zu finden. Das bedeutet, dass es nicht nur um punktuelle Durchbrüche geht, sondern um eine durchgängige koordinierte Optimierung von Chips, Systemsoftware bis hin zu Anwendungsservern.

Microsoft misst den Fortschritt in mehreren Richtungen des technologischen Sprungs anhand der Metrik „Anzahl der Tokens, die pro Dollar pro Watt verarbeitet werden können“: Dazu gehören die Weiterentwicklung der Chip-Prozesse, die Optimierung der Systemsoftware-Planung und die architektonische Innovation der Modelle selbst.

Nadella erklärte, dass Azure in diesem Jahr die erste Cloud-Plattform war, die NVIDIA GB200 Grace Blackwell-Chips im großen Maßstab in Betrieb genommen hat. Durch die Verbindung von bis zu 72 NVLink-verbundenen Racks zu einem Cluster kann ein einzelnes Azure-System jetzt bis zu 865.000 Tokens pro Sekunde verarbeiten und erreichte damit den höchsten Durchsatz aller öffentlichen Cloud-Plattformen bisher.

Im Bereich der Infrastruktur scheint niemand mehr Einfluss zu haben als Nvidia. Basierend darauf schaltete Nadella auf der Konferenz auch zu einem Gespräch mit Jensen Huang.

Nadella: Jensen, im Grunde ist unser gemeinsames Ziel, mehr „Intelligenz“ in die Welt zu bringen. In gewisser Weise streben wir danach, so viel Rechenleistung wie möglich für jeden Dollar und jeden Watt zu liefern. Ich würde gerne Ihre Meinung zu dieser Richtung hören, vielleicht können wir mit unserem alten Thema „Mooresches Gesetz“ beginnen.

Jensen Huang: Tatsächlich haben wir erst vor zwei Jahren auf Azure zusammengearbeitet, um den weltweit größten KI-Supercomputer zu bauen. Das stellt einen Quantensprung in der Rechenweise dar. Die von Ihnen auf Azure gebaute KI-Infrastruktur der nächsten Generation, kombiniert mit unseren neuesten Durchbrüchen bei CUDA-Algorithmen und Modellarchitekturen, hat die Leistung dieses Systems im Vergleich zur früheren Hopper-Architektur um das 40-fache gesteigert. Eine so große Beschleunigung in nur zwei Jahren zu erreichen, ist wirklich erstaunlich.

Wenn Hardware die „Muskeln“ sind, dann sind die Synergieeffekte der Software das „Nervensystem“, das das gesamte System zum Laufen bringt. Wir benötigen immer noch eine einheitliche Architektur und ein stabiles Ökosystem, damit die Investitionen der Entwickler nicht umsonst sind – sei es für Forscher, die Modelle trainieren, oder für Unternehmenskunden, die Systeme bereitstellen.

Nadella: Können Sie darüber sprechen, wie wir auf Azure durch die Vielfalt der Aufgaben und eine höhere Ressourcenauslastung den Wert weiter maximieren können?

Jensen Huang: Ein Vorteil von CUDA ist, dass es bereits eine riesige Nutzerbasis hat. Ein weiterer Vorteil ist, dass es sowohl beschleunigen kann als auch hochgradig universell ist und für eine Vielzahl von Workloads geeignet ist. Wir arbeiten hart daran, die Effizienz von Aufgaben wie Videotranskodierung und Bildverarbeitung um das 20- oder sogar 50-fache zu steigern. Was wir tun müssen, ist sicherzustellen, dass jede Aufgabe, jede Ressource im gesamten Rechenzentrum vollständig genutzt wird, um wirklich das Beste aus allem herauszuholen.

Es geht also nicht nur darum, „wie viele Tokens generiert werden können“, sondern darum, „wie viele verschiedene KI-Aufgaben wir pro Einheit Kosten und Energieverbrauch beschleunigen können“. Und das alles ist ohne unsere kontinuierliche gemeinsame Innovation in Hardware und Software nicht möglich.

Vielen Dank für Ihre Zusammenarbeit, Ihre Führung und unsere gemeinsame Vision – die fortschrittlichste KI-Infrastruktur der Welt zu bauen. Ich glaube, die wirklich aufregende Zeit steht noch bevor.

Nadella: Danke, Jensen. Tatsächlich setzen wir auf Azure den weltweit größten GB200-Supercomputer ein, was ein weiterer Sprung in Leistung und Skalierung sein wird. Wir freuen uns sehr darauf, diese Fähigkeiten globalen Entwicklern zur Verfügung zu stellen.

Die grundlegende Basis von KI ist jedoch nicht nur das Bereitstellen einiger GPUs. Jede KI-Anwendung benötigt neben Rechenleistung auch schnellen Speicher und Netzwerke – so wie man nicht nur einen Motor bauen kann, ohne sich um Räder und Tank zu kümmern. Microsoft verbessert die „Effizienzkurve“ von KI-Systemen ganzheitlich, von Netzwerken über Speicher bis hin zu Rechenressourcen.

Im Bereich der Rechenressourcen hat Microsoft letztes Jahr den auf der Arm-Architektur basierenden Prozessor Cobalt eingeführt und ihn schnell in internen Produkten wie Microsoft Teams und dem Defender-Sicherheitssystem weit verbreitet eingesetzt.

Natürlich sind nicht alle Aufgaben für die öffentliche Cloud geeignet. Szenarien, die sehr empfindlich auf Latenz reagieren oder sehr hohe Anforderungen an die Kontrolle der Datenstandorte stellen, erfordern Rechenressourcen, die „näher am Benutzer“ sind. Aus diesem Grund ermöglicht Microsofts Foundry Local-Dienst Benutzern, dieselben KI-Funktionen wie in der Cloud auch lokal auszuführen. Dadurch können plattformübergreifende KI-Anwendungen erstellt werden, die offline laufen können, vertrauliche Daten lokal speichern und die Bandbreitenkosten senken.

Bild

KI nutzen, um wissenschaftliche Entdeckungen zu beschleunigen

Am Ende der Konferenz erwähnte Nadella noch einen weiteren Schwerpunktbereich – die wissenschaftliche Forschung. Dies könnte vielleicht der aufregendste Bereich der nächsten Jahre sein. Er glaubt, dass der nächste große Sprung, den die KI mit sich bringt, gerade im wissenschaftlichen Prozess selbst liegen könnte. In Zukunft könnten wir die Geschwindigkeit bei der Erforschung neuer Materialien, Medikamente und Moleküle beschleunigen, und all das liegt im Kern einer fundamentalen Neugestaltung der Art und Weise, wie wissenschaftliche Entdeckungen gemacht werden.

Um dieses Ziel zu erreichen, hat Microsoft heute eine brandneue Plattform namens Microsoft Discovery eingeführt, die Agentic AI nutzt, um „den wissenschaftlichen Entdeckungsprozess zu verändern“. Man kann sie als den „Copilot“ der Wissenschaft betrachten – so wie GitHub Copilot die Softwareentwicklung neu gestaltet hat und Microsoft 365 Copilot die Wissensarbeit verändert hat, widmet sich Discovery dem Aufbau eines speziellen KI-Assistenten für wissenschaftliche Forscher.

Das Herzstück dieser Plattform ist Microsofts neueste Graph RAG Wissens-Engine. Sie kann nicht nur Informationen finden, sondern vor allem auch die komplexen, detaillierten Wissensstrukturen im wissenschaftlichen Bereich verstehen. Egal, ob die Daten aus öffentlichen Publikationen stammen oder aus den privaten Datenbanken von Biopharma-Unternehmen und anderen Unternehmen, Graph RAG kann sie zusammenführen.

Dieses System hat in Microsofts eigenen Forschungen ein gewisses Potenzial gezeigt. Offizielle Daten zeigen, dass es Forschern geholfen hat, in etwa 200 Stunden einen neuen Kühlmittel für die Immersionskühlung von Rechenzentren zu entdecken – ein Prozess, der traditionell Monate oder Jahre dauert.

Bild

Microsoft Discovery baut auf der Foundry-Plattform auf und wird von einer Reihe hochspezialisierter „wissenschaftlicher Agenten“ angetrieben. Diese intelligenten Agenten sind keine einfachen Automatisierungstools, sondern Forschungsassistenten, die tiefgehend inferieren, Hypothesen generieren, Simulationen ausführen und aus Ergebnissen lernen können. Sie optimieren Forschungsprozesse iterativ und ähneln eher einer Beteiligung an der wissenschaftlichen Arbeit selbst. Wie Microsoft es beschreibt: So wie Entwickler Code-Assistenten haben, werden Wissenschaftler auch ihre eigenen „wissenschaftlichen Assistenten“ haben.

Das waren die Höhepunkte der Build 2025 Konferenz. Welcher technische Punkt hat Sie am meisten interessiert? Teilen Sie Ihre Meinung gerne in den Kommentaren unten mit.

Empfohlene Lektüre:

Ein Aufzugausfall führt zur Entstehung der beliebtesten Sprache großer Unternehmen: Rust Stable feiert zehnjähriges Jubiläum!

Tencent hat gehandelt! Heimlich den KI-Programmierassistenten CodeBuddy veröffentlicht, Entwickler können den heimischen Cursor kostenlos erleben!

QR-Code kann auch Spiele ausführen? Entwickler fordert mit 3KB die Grenze heraus und rekreiert DOOM, nach einem Absturz...ChatGPT rettete den Tag

📢 Globale Produktmanager Technologie Konferenz 2025

Datum: 15.–16. August 2025

Ort: Peking·Westin Hotel

Die Globale Produktmanager Technologie Konferenz 2025 wird Produktmanager von großen Internetunternehmen, KI-Start-ups und aus der Frontline von ToB/ToC-Projekten zusammenbringen, um 12 spezialisierte Vorträge zu Kernfragen wie Produktdesign, Benutzererfahrung, Wachstumsbetrieb und KI-Implementierung abzuhalten, Trends zu erkennen, Wege zu analysieren und über die Zukunft zu diskutieren.

Weitere Details und Anmeldung finden Sie durch Scannen des untenstehenden QR-Codes.

Bild

Hauptkategorie:Microsoft Build

Unterkategorien:KIEntwicklertoolsWindowsOpen Source


Vorheriger:Wenn Denken zur Last wird: Enthüllung der "Denkfallen" großer Sprachmodelle

Nächster:Wahrheit im Licht vs. Algorithmische Illusion: Wissenschaftliche Fotografie im Zeitalter der KI

Kurz-URL teilen