Supermicro X11SSL-F | Windows Server 2022

Für das Supermicro-Motherboard X11SSL-F endet mit Windows Server 2019 der Support des Herstellers und auch der verbaute RAID-Controller (LSI MegaRAID SAS 9271-4I) hat schon einige Jahre hinter sich.

Dennoch war die Aufgabe, den Server mit Windows Server 2022 zu installieren. Da der Server bereits mit Windows Server 2019 (Hyper-V Server 2019) lief und ein Inplace-Upgrade von Microsoft unterstützt wird, lag diese Vorgehensweise nahe. Das Abenteuer endete oder begann – je nachdem, wie man es sehen will – mit einem BSOD.

74rwmoxe_ON1_Cloud

Leider wurde kein Dump geschrieben, da ich aber genau diese Hardware 2024 mit Hyper-V Server 2019 installiert hatte und damals der Treiber aus dem Betriebssystem verwendet wurde, kam mir der Verdacht das möglicher Weise der Treiber das Problem verursacht. Der storport.sys deutet ja in die Richtung der Platten.

Im Verlauf der Fehleranalyse haben sich zwei Wege für die Installation von Windows Server 2022 herauskristallisiert:

  • Inplace-Upgrade von Hyper-V Server 2019 auf Windows Server 2022 mit einem zuvor aktualisiertem Treiber für den LSI 9271-4I
  • Neuinstallation von Windows Server 2022 und Bereitstellung des Treibers für den LSI 9271-4I während der Installation

Für beide Abläufe ist der aktuellste Treiber (MR Windows Driver 6.14-6.714.05.00) notwendig, der sich hier zum Download findet.

https://docs.broadcom.com/docs/MR_WINDOWS_DRIVER_6.14-6.714.05.00-WHQL.zip

Inplace-Upgrade

Bevor das Inplace-Upgrade gestartet wird, muss zwingend der Treiber aktualisiert werden. Läuft man auf der Core-Version eines Windows Servers, so geht das am einfachsten über das Server Core App Compatibility Feature on Demand (FoD), welches nach der Installation den Device-Manager mitbringt, oder mit pnputil.exe.

# Installation der Windows Server Core App Compatibility (online)
Add-WindowsCapability -Online -Name ServerCore.AppCompatibility~~~~0.0.1.0

# Alternativ mit pnputil.exe
pnputil.exe -i -a oemdriver.inf

Zusätzlich, da dies direkt vom Betriebssystem ausgemacht werden kann,habe ich noch das BIOS des Rechners mit SUM und auch die Firmware des BMC aktualisiert.

Jetzt das Setup über eine ISO-Datei oder besser einen USB-Stick starten.

Neuinstallation

Die Neuinstallation, verläuft wie gewohnt! Nur das der Server die Volumes des LSI 9271-4I schon sieht, hier wird nun trotzdem der neue Treiber über Load driver geladen.

image

Wenn die Installation von einem USB-Stick erfolgt, kann man den Treiber gleich in entpackter Form mit drauflegen.

Für beide Wege, gibt dieser Artikel entsprechende Hinweise wenn im Device-Manager nicht erkannte Treiber vorhanden sind.

Enjoy it, b!

Synology Directory Server | Zertifikat abgelaufen

Wenn im Synology DSM das Zertifikat für den Synology Directory Server (SDS) abgelaufen ist, gibt es die Möglichkeit dieses Online wieder zu verlängern. Dazu sind die folgenden Schritte notwendig:

  1. Der Vorgang muss auf jedem Synology Directory Server (also auf jedem NAS) explizit durchgeführt werden (in diesem Netzwerk sind zwei davon vorhanden)
  2. Der DNS muss “korrekt” konfiguriert sein, was einfach bedeutet das mit dem NAS eine Verbindung in das Internet möglich ist und externe Domains aufgelöst werden
  3. Das DSM muss von außen über Port 80 (HTTP) erreichbar sein. Dazu muss auf dem Router eine Weiterleitung von Port 80 extern auf die <NAS-IP>:80 intern eingestellt werden. Danach ist diese Regel sofort wieder zu deaktivieren!

Im Detail sieht das wie folgt aus:

image

  • Issued by: domain.tld | Beispiel home.local
  • Subject Alternative Name: domain-controller.domain.tld | Beispiel mausi.home.local

Hier die Regel im Router, in diesem Fall ein Mikrotik:

image

Das hätte man auch ein wenig anders realisieren können, aber für die zwei Minuten funktioniert es sehr gut.

Nun wird im DSM unter Security / Certificate das Zertifikat ausgewählt und mit Action / Renew certificate das Renewal angestoßen.

image

Zur Sicherheit gibt das DSM nochmals einen Hinweis auf die notwendige DNS / Firewall-Konfiguration.

image

Mit  Renew Certificate dauert der Vorgang nur wenige Sekunden und es ist lediglich erforderlich, die Seite erneut zu laden.

image

Jetzt wieder Port 80 auf dem Router schließen und wir sind fertig.

Enjoy it, b!

Lenovo L470 | Entladung des Akkus im ausgeschalteten Zustand :-(

Wenn ich in der Forensik tätig werden muss, nehme ich gerne ein Laptop mit Linux als Arbeitsgerät. In infizierten Windows-Netzwerken – vor allem, wenn ich direkt beim Kunden ins Netzwerk muss – bietet dieses Betriebssystem deutlich weniger Angriffsvektoren. Das bedeutet allerdings nicht, dass Linux nicht angreifbar ist (das wäre aber eine andere Geschichte).

Darum soll es hier aber gar nicht gehen. Kürzlich wurde ein Upgrade fällig und ich konnte ein Lenovo L470 erstehen, das nicht mehr Windows 11 tauglich ist. Mit 32 GB RAM, einer 1TB-SSD und einem Intel-I7-Prozessor ist es ein mehr als üppiges Arbeitsgerät. Einzig der dicke Akku mit 44Wh störte mich. Da er schon alt war und einiges an Kapazität verloren hatte, dachte ich an einen Austausch gegen ein 24Wh No-Name-Äquivalent.

Alter Akku raus und neuer Akku rein und fertig, dachte ich!

Nach einem Tag war das Laptop leer und wollte eine Korrektur der BIOS-Einstellungen. Zunächst hatte ich natürlich den neuen Akku in Verdacht. Nachdem ich jedoch die CMOS-Batterie ausgetauscht und einen Akku eines anderen No-Name-Herstellers verwendet hatte, zeigte sich, dass der Akku in Ordnung war. Auch mit dem anderen Akku war das L490 nach einem Tag leer … doch warum?

Vor der Installation von Linux hatte ich das BIOS zurückgesetzt und die aktuelle Firmware installiert. Nach ein paar Tagen habe ich den Akku gewechselt.

Da das mehrfache Wechseln der Akkus keine Lösung brachte, bin ich auf einen Artikel von Lenovo gestoßen:

Die Batterie kann entladen werden, wenn das System ausgeschaltet oder im Energiesparmodus ist – ThinkPad, ideapad – Lenovo Support DE

BIOS

Dazu muss im BIOS die folgende Option auf “Disabled” gesetzt werden:

Charge in Battery Mode = [Disabled]

Jetzt hält der Akku und verliert so gut wie keine Kapazität im ausgeschalteten Zustand.

Enjoy it, b!

Windows 11 | Kernelisoierung

Wenn in Windows 11 aufgrund eines inkompatiblen Treibers die Speicherintegrität nicht aktiviert werden kann, kann der entsprechende Treiber deinstalliert werden, sofern er nicht verwendet wird.

Hier die Meldung von Windows 11:

image

Bevor nun der Treiber deinstalliert wird, ist es sinnvoll zu prüfen ob dieser nicht doch geladen ist. Für diesen Fall, konnte ich das schon im Vorfeld ausschließen, da es sich um mein eigenes Surface Laptop Studio handelte und ich keine WDC-Geräte im Einsatz habe.

Der folgende “One-Liner” in PowerShell zeigt, ob zum Beispiel der Treiber für “Volume Shadow Copy / volsnap” geladen ist (Quasi als Test).

# Check if volsnap\.sys is running
Get-CimInstance Win32_SystemDriver | Where-Object { $_.State -eq 'Running' -and $_.PathName -match 'volsnap\.sys' } | ForEach-Object { "Driver '$($_.Name)' is running from path: $($_.PathName)" }

image

Wie im folgenden Aufruf zu sehen, muss nun der Volsnap gegen den WDCsam64_PreWin8 ausgetauscht werden. Der Name lässt sich übrigens über die Zwischenablage kopieren. Im Gegensatz zu oben darf nun nichts angezeigt werden.

# Check if wdcsam64_prewin8\.sys is running
Get-CimInstance Win32_SystemDriver | Where-Object { $_.State -eq 'Running' -and $_.PathName -match 'wdcsam64_prewin8\.sys' } | ForEach-Object { "Driver '$($_.Name)' is running from path: $($_.PathName)" }

Jetzt kann der WDC-Treiber entfernt werden. Am einfachsten geht das mit pnputil.exe, wenn man den “Veröffentlichter Name“: oem26.inf verwendet (oben im Screenshot blau unterstrichen). Die Eingabeaufforderung dazu bitte als Administrator ausführen.

# Deleting wdcsam64_prewin8.sys driver
pnputil /delete-driver oem26.inf /uninstall /force

image

Jetzt den PC neu starten und die Speicherintegrität kann eingeschaltet werden, was aber danach einen erneuten Neustart erfordert.

image

Sieht am Ende so aus und Windows 11 ist damit auch zufrieden.

image

Enjoy it, b!

P.S. jetzt kümmere ich mich darum wieso Windows 11 glaubt, dass mein Laptop alles in DE-DE anzeigen muss, obwohl ich EN-US eingestellt habe.

Hyper-V | Konvertierung virtueller Disks

Gerade gibt es im Bereich der Virtualisierung recht viel zu tun. Ein zentrales Thema ist dabei die Konvertierung von virtuellen Disks (VHD). Da Broadcom VMware freiwillig aufs Abstellgleis geschoben hat, spielen OpenSource und Hyper-V immer mehr eine wichtige Rolle.

Ich bin schon lange ein Freund von Hyper-V, da damit auch in kleinen Umgebungen virtualisiert werden kann, wenn ohnehin schon eine Windows Server-Lizenz vorliegt. Spätestens seit QNAP und Synology ihre NAS-Systeme mit Prozessoren von AMD und Intel ausstatten und zudem Hauptspeicher von 32 GB und mehr vorhanden ist, spricht nichts dagegen, auch auf einem NAS einen Anwendungsserver zu virtualisieren.

QEMU, hin und zurück

Während sich VHDs von Hyper-V (auch VHDX genannt) unter dem Synology Virtual Machine Manager importieren lassen und dabei zu einer VMDK konvertiert werden, ist bei der Migration einer VM von einer Synology auf einen Hyper-V-Server Handarbeit erforderlich.

Wird eine VM auf einem Synology-NAS exportiert, liegt am Ende des Vorgangs eine OVA-Datei in einem Verzeichnis/Share vor.

Die OVA-Datei ist ein Container, der neben allen Festplatten der VM auch deren Konfiguration in Form einer XML-Datei beinhaltet. Letztere wurde jedoch aus „Sicherheitsgründen” mit der Endung OVF versehen.

Der Importvorgang unter Hyper-V, der im Grunde keiner ist, läuft dabei wie folgt ab:

  1. Erstellen einer VM in Hyper-V mit den passenden Parametern. Hat man sich die Konfiguration nicht gemerkt, kann man ja in der OVF-Datei nachschauen
  2. Kopieren der VHDX in den Ordner “Virtual Hard Disks”
  3. Anhängen der virtuellen Disk (VHDX ) an die VM
  4. Start der VM

Wie kommt man nun aber von der OVA zu einer VHDX -Datei?

Dazu sind die folgenden Schritte notwendig:

image

Hier die einzelnen Befehle und bitte die Namen der Disks anpassen:

::  Entpacken der OVA-Datei mit 7z
7z.exe e w11-test-02.ova

:: Konvertieren der ersten Disk aus der OVA-Datei (welche das Betriebssystem enthaelt) in das vhdx-Format
qemu-img.exe convert w11-test-02-disk1.vmdk -O vhdx -o subformat=dynamic w11-test-02.vhdx

Nachdem Microsoft den Virtual Machine Converter (MVMC) aus unerfindlichen Gründen beerdigt hat, verwende ich neben dem QEMU disk image utility noch Disk2vhd, wenn ich mich nur in der Microsoft-Welt bewege.

Update 18.06.2025
Muss eine Hyper-V VHDX für QEMU, KVM oder libvirt (zum Beispiel GNOME Boxes) konvertiert werden, erfolgt das mit folgendem Aufruf (auch hier bitte die Pfade und Namen anpassen:

::  Konvertieren einer Hyper-V VHDX für die Verwendung mit QEMU
qemu-img.exe convert -f vhdx -O qcow2 ..\Win11_24H2_English_x64-rufus.vhdx ..\..\Win11_24H2_English_x64-rufus.qcow2 -p

Enjoy it, b!

Windows Server 2016 | Update NuGet fails

Ein paar Tage hat er ja noch, der Windows Server 2016 und falls mit PowerShell neue Module geladen werden sollen kann eine Aktualisierung des NuGet-Paketproviders erforderlich sein.

Sollte diese fehlschlagen und die folgende Fehlermeldung erscheinen, kann das an einer nicht ausreichenden Transportverschlüsselung liegen.

Hier die Fehler beim Versuch ein PowerShell-Modul zu installieren, was wiederum eine Aktualisierung von NuGet notwendig machte.

image

Bei dem Versuch die Aktualisierung manuell durchzuführen.

image

Die Lösung lag in der Verwendung von TLS1.2 für .Net.

# Forcing .Net to use TLS1.2 instead of SSL3 or lower TLS versions
[System.Net.ServicePointManager]::SecurityProtocol = [System.Net.SecurityProtocolType]::Tls12;

image

Danach hat auch die Installation des PowerShell Windows Update Modules ohne Probleme funktioniert.

Enjoy it, b!

Hyper-V | Konvertierung virtueller Disks

Gerade gibt es im Bereich der Virtualisierung recht viel zu tun. Ein zentrales Thema ist dabei die Konvertierung von virtuellen Disks (VHD). Da Broadcom VMware freiwillig aufs Abstellgleis geschoben hat, spielen OpenSource und Hyper-V immer mehr eine wichtige Rolle.

Ich bin schon lange ein Freund von Hyper-V, da damit auch in kleinen Umgebungen virtualisiert werden kann, wenn ohnehin schon eine Windows Server-Lizenz vorliegt. Spätestens seit QNAP und Synology ihre NAS-Systeme mit Prozessoren von AMD und Intel ausstatten und zudem Hauptspeicher von 32 GB und mehr vorhanden ist, spricht nichts dagegen, auch auf einem NAS einen Anwendungsserver zu virtualisieren.

QEMU, hin und zurück

Während sich VHDs von Hyper-V (auch VHDX genannt) unter dem Synology Virtual Machine Manager importieren lassen und dabei zu einer VMDK konvertiert werden, ist bei der Migration einer VM von einer Synology auf einen Hyper-V-Server Handarbeit erforderlich.

Wird eine VM auf einem Synology-NAS exportiert, liegt am Ende des Vorgangs eine OVA-Datei in einem Verzeichnis/Share vor.

Die OVA-Datei ist ein Container, der neben allen Festplatten der VM auch deren Konfiguration in Form einer XML-Datei beinhaltet. Letztere wurde jedoch aus „Sicherheitsgründen” mit der Endung OVF versehen.

Der Importvorgang unter Hyper-V, der im Grunde keiner ist, läuft dabei wie folgt ab:

  1. Erstellen einer VM in Hyper-V mit den passenden Parametern. Hat man sich die Konfiguration nicht gemerkt, kann man ja in der OVF-Datei nachschauen
  2. Kopieren der VHDX in den Ordner “Virtual Hard Disks”
  3. Anhängen der virtuellen Disk (VHDX ) an die VM
  4. Start der VM

Wie kommt man nun aber von der OVA zu einer VHDX -Datei?

Dazu sind die folgenden Schritte notwendig:

image

Hier die einzelnen Befehle und bitte die Namen der Disks anpassen:

::  Entpacken der OVA-Datei mit 7z
7z.exe e w11-test-02.ova

:: Konvertieren der ersten Disk aus der OVA-Datei (welche das Betriebssystem enthaelt) in das vhdx-Format
qemu-img.exe convert w11-test-02-disk1.vmdk -O vhdx -o subformat=dynamic w11-test-02.vhdx

Nachdem Microsoft den Virtual Machine Converter (MVMC) aus unerfindlichen Gründen beerdigt hat, verwende ich neben dem QEMU disk image utility noch Disk2vhd, wenn ich mich nur in der Microsoft-Welt bewege.

Nachdem Microsoft aus unerfindlichen Gründen den Virtual Machine Converter (MVMC) eingestellt hat, verwende ich neben dem QEMU Disk Image Utility noch Disk2VHD, wenn ich mich ausschließlich in der Microsoft-Welt bewege.

Enjoy it, b!

WSUS | Optimierung des IIS (WSUS Application Pool)

Hier auf dem Blog gibt es einige Artikel zum Thema WSUS (Windows Server Update Services) und ja, ich stimme Euch zu. Man kann ihn wirklich hassen oder lieben, doch besonders in den heutigen Zeiten bin ich mehr als froh, wenn ich auf einfache Weise ein Update zurückhalten kann. Es läuft momentan nicht optimal mit den Windows Updates Winking smile

Hier nochmals eine Aufstellung der Beiträge:

Doch worum geht es heute? Microsoft liefert einen umfangreichen Beitrag zu den Windows Server Update Services best practices, die immerhin am 02. Februar 2025 ihre letzte Überarbeitung erfahren haben.

Windows Server Update Services (WSUS) best practices – Configuration Manager | Microsoft Learn

Besonders hervorzuheben sind die notwendigen Einstellungen für den WSUS Application Pool.

image

Diese Einstellungen können auch mit der PowerShell konfiguriert werden, was insbesondere bei mehreren WSUS eine Erleichterung darstellt.

image

Zum Download gibt es den Code hier.

Enjoy it, b!

Surface Pro 9 | Langsames Kopieren auf eine SSD

Ich denke, dass die folgenden Erkenntnisse auf jeden Computer mit Windows 11 übertragbar sind, sofern er über eine schnelle Schnittstelle (USB-C oder Thunderbolt) verfügt.

Analysiert habe ich das alles auf einem Microsoft Surface Pro 9 und daher rührt der Titel.

Ausgangssituation

Ich verwende externe SSDs hauptsächlich (zu 95%) als Speichermedium für Fotos und RAW-Dateien. Früher liefen auf meinen externen Festplatten oft virtuelle Maschinen (VMs), die vielleicht die restlichen 5% ausmachen.

Es handelt sich um Dateigrößen zwischen 25MB und bis zu 100MB, eine VM kann also auch mal 50 oder 100GB haben, wahrscheinlicher ist aber, dass auf der externen SSD ein paar ISO-Dateien herumliegen (die sind meistens zwischen 4 und 6GB groß).

Die beiden Schnittstellen des Surface sind als USB-C nach der USB 4.0-Spezifikation ausgeführt und leisten zumindest theoretisch 40GBit/s.

Als Übersicht hier die einzelnen Geschwindigkeiten, da wir diese nachher noch benötigen (als Anhaltspunkt).


Spezifikation Geschwindigkeit
USB 2.0 480Mbit/s ~ 60MB/s
USB 3.0 5Gbit/s ~ 625MB/s
USB 3.1 10GBit/s ~ 1250MB/s
USB 3.2 20GBit/s ~ 2500MB/s
USB 4.0 40GBit/s ~ 5000MB/s

Kurz vor meinem Urlaub wollte ich eine Reihe von Verzeichnissen mit Bildern (etwas über 100 GB) auf eine zweite externe SSD sichern, was über eine halbe Stunde dauerte. Die beiden verwendeten externen SSDs waren eine alte Samsung Portable T5 mit 1TB und eine Samsung Portable T7 mit 4TB.

  • Samsung Portable SSD T5 mit USB 3.1 und ~ 540MB/s
  • Samsung Portable SSD T7 mit USB 3.2 und ~1000MB/s

Meine Erwartung war, dass die 100GB Daten in weniger als 10min kopiert werden.

Der eigentliche Test

Um die Sache nicht unnötig kompliziert zu machen, habe ich mich für das ISO von Windows 11 in der Version 23H2 als Testobjekt (mit 6,8GB) entschieden.

Ein erster Test ergab eine Schreibgeschwindigkeit von ~ 30MB/s was deutlich unter den Möglichkeiten der alten Samsung T5 liegt.

image

Auch robocopy bestätigte in seiner Zusammenfassung die geringe Performance.

image

Mein erster Verdacht fiel auf das verwendete USB-Kabel, ein USB-C Ladekabel von UGREEN, da dieses vom Hersteller mit 480Mbps angegeben wird und somit schnell genug für die 540MB/s des Samsung T5 sein sollte. Trotzdem habe ich das USB-Kabel von UGREEN durch ein original “Samsung SSD” USB-C Kabel ersetzt und damit eine 10x höhere Schreibrate erreicht.

image

Robocopy hat hier eine Geschwindigkeit von 323.678.163 Bytes/sec. ermittelt.

Das ist die erste Erkenntnis, die ich zusammenfassen möchte:

Es kommt auf das Kabel an, genauer gesagt auf dessen Bandbreitenspezifikation.

Das USB-C Kabel von UGREEN hat seinen Weg zu mir gefunden, als ich versuchte, die Anzahl der Kabel für ein größeres Projekt zu minimieren.

Dabei stellte sich mir die Frage, ob man mit einem geeigneten Kabel und einer schnelleren SSD wie der T7 noch höhere Übertragungsraten erzielen könnte.

Testmuster mit einer Samsung Portable Shield T7 4TB

Neben einer doppelt so hohen Schreibgeschwindigkeit will ich mir auch den Einfluss der Windows Write-Caching Policy anschauen.

Wie schon die Samsung Portable T5 war auch die T7 wie folgt eingestellt.

image

Damit war eine Geschwindigkeit von um die 540MB/s zu erreichen.

image

Ob in der Write-caching policy die beiden Optionen Enable write caching on the device und Turn of Windows wirte-cache buffer flushing on the device aktiviert waren, spielte keine große Rolle.

image

Die Datenrate erhöhte sich um ~ 25MB/s auf 560MB/s.

Die zweite Erkenntnis wäre damit, dass hauptsächlich die Einstellung Removal Policy = Better Performance eine Rolle spielt, insofern das passende Kabel verwendet wird.

Removal Policy = Better Performance

Möchte man also sowohl sein Surface über das Kabel laden als auch eine externe SSD mit guter Performance betreiben, so muss dieses beiden Spezifikationen entsprechen. Die Annahme, dass wenn das Kabel schnellladefähig ist, auch eine hinreichende Übertragungsrate erzielt wird, kann ich nicht bestätigen.

Das beste kommt zum Schluss

Natürlich könnte man die Frage stellen, was mache ich wenn mein originales Kabel verloren geht? Richtig, aufpassen Winking smile aber es gibt auch noch Alternativen. Im großen Fluss habe ich ein, für USB4 zertifiziert Kabel gefunden (30cm) das ebenfalls 40Gb/s. Die Hoffnung war das es ungefähr die Datenrate des Samsung-Kabels erreichen würde. Dem war aber nicht so, mit diesem Kabel waren 15% mehr Durchsatz möglich.

image

Enjoy it, b!

Windows 11 | RDP died with KB5051987

Es gibt Dinge, die man nicht braucht, und das Verhalten von Windows 11 nach der Installation von KB5051987 gehört eindeutig dazu.

RDP-Sitzungen zwischen Windows 11 PCs und auch Windows Server 2022 sowie 2025 (mehr konnte ich nicht testen) mit aktuellem Februar-Update bleiben nach Eingabe der Anmeldeinformationen hängen.

Eine sehr gute Quelle ist der Blog von Günther Born, in dem häufig erste Probleme gesammelt werden.

Ein erster Workaround

Eine erste Lösung war die Deinstallation von KB5051987 sowohl auf dem Quell- als auch auf dem Zielsystem.

image

Dies ist vor allem dann praktikabel, wenn man zur weiteren Fehleranalyse in den Modus Operandi zurückkehren möchte. Die Deinstallation des Updates ist nur ein Workaround, zumal Windows sich beeilt, das Update erneut zu installieren oder zur Installation anzubieten.

image

Sollte noch ein WSUS im Einsatz sein, kann man das über diesen verhindern, befindet sich aber immer noch im Bereich eines Workarounds.

Die Lösung bis es hoffentlich einen Fix dafür gibt

Eine mögliche Lösung ist die Aktivierung der Netzwerkerkennung auf dem Server über ein GPO und da bei mir auf dem Server immer alles in Englisch ist, geht es auch mit den Einstellungen in Englisch weiter.

image

Dazu habe ich eine neue GPO angelegt und zusätzlich die Gruppe der Domain Computers berechtigt (Security Filtering), die Authenticated Users sind per Default schon berechtigt. Für Small Business Umgebungen, wo es nur einen einzigen Server gibt (der damit zwangsweise auch Domain Controller ist), muss die Gruppe der Domain Controllers berechtigt werden.

Dazu habe ich ein neues GPO erstellt und zusätzlich die Gruppe der Domain Computers berechtigt (Security Filtering), die Authenticated Users sind per Default bereits berechtigt. Für Small Business Umgebungen, wo es nur einen Server gibt (der damit zwangsläufig auch Domain Controller ist), muss die Gruppe der Domain Controller berechtigt werden.

image

Nun muss die folgende Einstellung in der GPO gesetzt werden.

# Enable Select network detection on the server
Computer Configuration \ Policies \ Administrative Templates \
Windows Components \ Remote Destop Services \
Remote Desktop Session Host \ Connections \
Select network detection on the server = Enabled \
Select Network Detect Level = Use both Connect Time Detect and Continuous Network Detect

Was dann wie im 3ten Screenshot oben aussieht.

Auf den betroffenen Systemen dann einen gpupdate /force durchführen, den man (weil ja RDP nicht geht) auch über Enter-PSsession durchführen kann.

Update (geht diesesmal schneller als sonst Smile ) 17.02.2025

Das Setzen der Policy funktioniert natürlich auch auf einem Windows 11 PC OHNE Domänenzugehörigkeit. Dazu einfach gpedit als Administrator öffnen und den Wert wie folgt setzen.

image

Damit habe ich auch die Einstellungen in deutscher Sprache geliefert!

Enjoy it, b!

Aber das

cc