Wird gemacht im Terminal vom Container
pkill -u iobroker
iobroker update
iobroker upgrade self
Nach dem Update dann ein „Neustart“ des Containers.
node.js kann man durch Update des Linux aktualisieren:
apt update
apt upgrade
Geht niemanden was an
Wird gemacht im Terminal vom Container
pkill -u iobroker
iobroker update
iobroker upgrade self
Nach dem Update dann ein „Neustart“ des Containers.
node.js kann man durch Update des Linux aktualisieren:
apt update
apt upgrade
Um also mehrere Server- bzw. Dienstnamen in einem Zertifikat einzubinden, erstellt man ein spezielles Zertifikat, welches um das Datenfeld Subject Alternative Names erweitert wird. Öffentliche Zertifizierungsstellen (Certificate Authority, CA) bieten u.a. Webformulare an, in denen man alle benötigten Namen angibt. Die CA erstellt aus den Angaben den Certificate Signing Request (CSR) sowie den Private Key und signiert das neue Zertifikat. Der private Schlüssel ist streng vertraulich, da mit diesem die Entschlüsselung von Daten erfolgt.
In diesem Szenario besitzt die Zertifizierungsstelle sowohl den öffentlichen als auch den privaten Schlüssel des Zertifikats. Die Sicherheit und Vertraulichkeit ist dadurch nicht mehr gewährleistet. Der private Schlüssel ist vor Zugriffen Dritter, also auch vor Zugriffen öffentlicher Zertifizierungsstellen, zu schützen.
Vertraulichkeit und hohe Sicherheitsansprüche sind gute Gründe den CSR, und damit den privaten Schlüssel, selbst zu erstellen. Betreibt man eine eigene, interne PKI, bspw. mithilfe Microsofts AD CS, wird man gelegentlich CSR für interne Dienste bzw. Server erstellen müssen. Im Folgenden wird beschrieben, wie man diese CSR zum Ausstellen neuer Zertifikate mit Windows Bordmitteln recht einfach erstellt. Das Verfahren ist nicht ausschließlich auf SAN-Zertifikate beschränkt, sondern kann auch zum Beantragen von Wildcard- und Single Name-Zertifikaten angewandt werden.
Der Zertifikatsspeicher des lokalen Computers.
Zertifikate werden in unterschiedlichen Bereichen aufbewahrt. Es gibt den zentralen Zertifikatsspeicher des Computer. Die in diesem Speicher abgelegten Zertifikate können sowohl von Programmen, Diensten sowie von allen Benutzern des Computers genutzt werden. Zum Verwalten dieser Zertifikate sind jedoch Administratorberechtigungen erforderlich. Die Management Konsole des Computer Certificate Store ruft man über Start –> Ausführen –> certlm.msc auf.
Der Zertifikatsspeicher des angemeldeten Benutzers.
Jeder Benutzer besitzt seinen eigenen Certificate Store. Auf den benutzerspezifischen Zertifikatsspeicher hat nur der jeweilige Anwender Zugriff. Für die Verwaltung der eigenen Zertifikate sind keine administrativen Berechtigungen erforderlich. Die Management Konsole des eigenen Zertifikatsspeicher startet man über Start –> Ausführen –> certmgr.msc auf.
Um den CSR direkt auf dem Windows Gerät zu erstellen, auf dem das neue Zertifikat eingesetzt werden soll, verwendet man idealerweise die Zertifikatsverwaltung des Computers: certlm.msc. Generiert man den CSR stellvertretend, um das Zertifikat nach Erstellung zu exportieren und weiterzugeben, reicht die eigene, benutzerbezogene Zertifikatsverwaltung, da sie keine erhöhten Rechte anfordert: certmgr.msc
Für ein SAN-Zertifikat muss eine benutzerdefinierte Anforderung (Custom Request) erstellt werden.
Nach dem Start des Assistenten, führt man den Vorgang ohne Registrierungsrichtlinie fort. Active Directory-Registrierungsrichtlinien werden über Gruppenrichtlinien (GPO) verwaltet und stellen in der Regel einfache Benutzer- oder Computerzertifikate aus. Diese Richtlinie ist für unsere Zwecke nicht ausreichend.
Sowohl die Wahl der Crypto Engine CNG, als auch das Format PKCS sind vorausgewählt.
Den CSR konfiguriert man über Eigenschaften, die durch einen Klick auf Details erscheinen.
Sowohl Anzeigename als auch Beschreibung dienen der besseren Übersicht, haben üblicherweise keine technische Relevanz und können frei gewählt werden.
Es gibt vereinzelt Anwendungen die den Anzeigenamen nutzen, um Zertifikate zu identifizieren. Beispielsweise greift der Office Online Server auf dieses Feld zurück, um ein Wildcard-Zertifikat einzubinden. Der VMware Connection Server erfordert gar den vordefinierten Wert vdm als Anzeigename, um das richtige Zertifikat zu erkennen, was bei einem Zertifikatswechsel zu beachten ist.
Diese Eigenschaften lassen sich jederzeit nachträglich in der Zertifikatsverwaltung anpassen.
Jetzt sind alle relevanten Daten einzugeben. Üblicherweise gibt man als Common Name (Allgemeiner Name) den DNS-Namen an, unter dem der Dienst öffentlich erreichbar ist. Hinzu kommen Angaben zum Ort bzw. Stadt (L=Location), Land/Region (C=Country), was nicht zu verwechseln ist mit (Bundes)Land (S=State). Des Weiteren sind die Angaben Organisation (O), die verantwortliche Organisationseinheit (OU), in der Regel die IT-Abteilung, und die E-Mail-Adresse eines Kontakts. Übliche Kürzel, bspw. Länderkennungen, sind erlaubt.
Die alternativen Namen werden im unteren Abschnitt eingetragen. Neben DNS kann man auch die IP-Adressen eintragen.
Welchen Zweck ein Zertifikat erfüllt, gibt man im Reiter Erweiterungen unter Erweiterte Schlüsselverwendung (Anwendungsrichtlinien) an. Für ein Serverzertifikat ist die Option Serverauthentifizierung auszuwählen. Oftmals wird Zertifikaten zusätzlich die Option Clientauthentifizierung hinzugefügt, über die sich ein Server anderen gegenüber als Client authentifiziert. Diese Option ist aber nicht erforderlich.
Bei der Angabe Schlüsselverwendung handelt es sich um Einschränkungen der Verwendung des Zertifikats auf die ausgewählten Optionen. Typischerweise erforderlich für ein Serverzertifikat ist Digitale Signatur, oft in Kombination mit Schlüsselverschlüsselung, was bedeutet, dass der Schlüsselaustausch nur mit Schlüsselverschlüsselung zugelassen ist. Diese Angabe ist optional und wird ggf. durch die signierende CA gesetzt.
Die Auswahl und Konfiguration der Cipher Suite erfolgt im Reiter Privater Schlüssel. Je nach Verwendungszweck und Laufzeit des Zertifikats, ist ein geeigneter Algorithmus mit entsprechender Schlüssellänge zu wählen. Nach wie vor häufig im Einsatz ist RSA. Bei Verwendung von RSA sollte der Schlüssel mindestens 2048, besser 4096 Bit lang sein. Neuere Alghorithmen, bspw. auf Basis elliptischer Kurven wie ECDH, kommen mit kleineren Schlüsseln aus.
Der Kryptografieanbieter, per default RSA, kann ausgewählt bleiben. Damit verstehen sich die meisten Programme. Möchte man die Sicherheit hochschrauben, greift man zu neueren Cipher Suiten mit Elliptic Curve Cryptography (ECC). Das Perfect Forward Secrecy Verfahren stellt sicher, dass verschlüsselte Kommunikation nicht zu entschlüsseln ist, da sich mit jeder neuen Session der Session Key ändert.
Der Hashalgorithmus sollte unbedingt auf SHA-2 basieren, SHA-1 und MD5 sind unsicher, auf sie sollte man komplett verzichten. In der Praxis werden die Algorithmen SHA-256, SHA-384 und SHA-512 verwendet, aktuelle Browser und Geräte unterstützen SHA-2. Muss das Zertifikat exportiert werden, ist der private Schlüssel als exportierbar zu kennzeichnen.
Nach der Angabe aller Daten, schließt und speichert man die Anforderung ab.
Den CSR schickt man nun der CA. Der CA Administrator prüft und signiert den Request, um diesen in Form eines Zertifikates zurückzusenden. Dieses Zertifikat muss auf dem Gerät importiert werden, auf dem der CSR erstellt wurde. Und der Import erfolgt in den zuvor genutzten Zertifikatsspeicher. Denn nur dort liegt der generierte private Schlüssel des Zertifikats.
Windows ordnet den privaten Schlüssel automatisch dem zugeordneten Zertifikat zu. Ob ein Schlüsselpaar komplett ist, zeigt sich in den allgemeinen Informationen des Zertifikats durch ein Schlüsselsymbol.
Offene, nicht abgeschlossene Anforderungen sind in der Zertifikatsverwaltung im Abschnitt Zertifikatregistrierungsanforderungen zu finden.
Als Verwalter einer internen PKI oder als Berechtigter zur Ausstellung von Zertifikaten, geht man mittels Browser auf das Web Interface der eigenen CA (https://ca-server/certsrv/). Auf der Webseite klickt man auf Request a certificate.
Anschließend navigiert man zur Anforderungseite über den Link Submit a certificate request[…].
Den kompletten Inhalt des CSR, die Datei kann mit jedem Texteditor geöffnet werden, überträgt man in das Formular, wählt die gewünschte Zertifikatsvorlage aus und schickt die Anfrage ab.
War der Vorgang erfolgreich, wird das signierte Zertifikat zum Download angeboten, welches dann an den Anforderer zurückgeschickt oder importiert werden kann.
Alternativ zum Web Enrollment, können CSR direkt über die CA Managenment Konsole oder mittel certreq.exe signiert werden.
Content retrieved from: https://www.privalnetworx.de/create-san-certificate.
Man kann in Office 365 Kontakte teilen, obgleich die dafür verfügbaren Optionen – gemessen an geteilten Kalendern – eingeschränkt sind.
Der größte Nachteil liegt darin, dass die Freigabe von Kontakteordnern nicht möglich ist, wenn man OWA nutzt. Um Ihre privaten Kontakte mit anderen teilen zu können, Sind Sie angewiesen auf MS Outlook. Der Vorgang ist ziemlich einfach:
Alle Empfänger dieser Einladung bekommen eine Nachricht mit dem Button Open this Contacts Folder oben links. Wenn sie ihn anklicken, erscheint der neue Ordner im Bereich Shared Contacts unter People. Der Ordner ist nach der freigebenden Person benannt.
Leider kann eine solche Einladung in OWA nicht geöffnet werden, denn das Öffnen freigegebener Kontakteordner wird hier nicht unterstützt.
Die Freigabe Ihrer privaten Kontakte ist nicht die einzige Methode – Sie können auf ein geteiltes Postfach zurückgreifen. Die Erstellung eines geteilten Postfachs in Office 365 ist identisch mit der Erstellung eines Gruppenkalenders.
Hierfür benötigen Sie die administrativen Rechte:
Ein neues geteiltes Postfach wurde angelegt. Der Vorteil dieser Lösung ist, dass User mit uneingeschränktem Zugriff auf das Postfach, dessen Ordner gleich sehen können. Beim Öffnen des Bereichs People in Outlook wird dort ein Ordner mit graulichem Namen angezeigt.
Mit OWA funktioniert das leider nicht. Kontakteorder aus einem geteilten Postfach können dort nicht geöffnet werden. Outlook ist die einzige Option.
Auch in diesem Szenario stolpert man über mehr Probleme als bei einem Kalender. Externe Freigabe ist möglich nur wenn beide Organisationen miteinander verbunden sind.
Die Tatsache, dass man in Office 365 leichter Kalender teilen kann als Kontakte, überrascht wenig. Ein freigegebener Kalender kann in OWA geöffnet und bearbeitet werden. Man kann sogar Kalender eines geteilten Postfachs öffnen. Kontakteordner hat man in dieser Hinsicht links liegen lassen.
Content retrieved from: https://www.codetwo.de/blog/geteilte-kontakte-in-office-365/4720.
Bei der Neueinrichtung eines Benutzerprofils in Microsoft Outlook kann es mitunter vorkommen, dass die Namen mehrerer Standardordner nicht auf Deutsch angezeigt werden. So erscheint plötzlich der Name „Inbox“ statt Posteingang und die gesendeten Elemente nennen sich plötzlich „Sent Items“. Glücklicherweise kannst Du aber auch im Nachhinein noch Dein Outlook auf Deutsch umstellen.
Die Ursache für die verkehrten Spracheinstellungen sind leider nicht immer sofort ersichtlich. Microsoft Outlook übernimmt beim ersten Start des Benutzerprofils die zu diesem Zeitpunkt eingestellte Sprache der Benutzeroberfläche. Meinen Erfahrungen nach, kommt dieses Phänomen aber auch bei komplett deutschen Umgebungen vor, sogar wenn zudem einzig und allein die deutsche Tastatur verfügbar ist.
Um diesen Fehler zu beseitigen, muss Outlook lediglich einmal von der Kommandozeile aus mit dem Parameter /resetfoldernames gestartet werden: Start -> Ausführen (oder Windows-Taste + R) -> outlook.exe /resetfoldernames. Nach der Bestätigung mit „OK“ startet Outlook und die Standardordner werden wieder korrekt in der deutschen Sprache angezeigt. In der Praxis habe ich es bereits erlebt, dass nicht sofort alle Ordnernamen übersetzt wurden. Dann hilft es, Outlook zu schließen und den Befehl erneut auszuführen.
Wenn Standardordner nicht auf Deutsch angezeigt werden. Mit dem Parameter resetfoldernames lässt sich Outlook auf Deutsch umstellen.
Außer dem Parameter, mit dem Du Dein Outlook auf Deutsch umstellen kannst, gibt es noch jede Menge weiterer Startparameter von Microsoft Outlook. Hier einmal die hilfreichsten:
Mit dem Parameter „resetfoldernames“ lässt sich Outlook auf Deutsch umstellen
Eine Auflistung sämtlicher Parameter findest Du auf der Microsoft-Seite Befehlszeilenoptionen für Outlook 2010 (auch gültig für Versionen 2007-2016).
Auch interessant:
Content retrieved from: https://www.tech-faq.net/outlook-auf-deutsch-umstellen/.
Hinweis: Die folgenden Schritte gelten für die neueste Version von Outlook im Web.
Hinweis
Wenn Ihre bevorzugte Sprache bereits ausgewählt ist, wählen Sie eine andere Sprache aus, speichern Sie die Einstellung, setzen Sie die Einstellung auf Ihre bevorzugte Sprache zurück, und speichern Sie die Einstellung dann erneut.
Sie müssen über Administratorberechtigungen verfügen, um das
Cmdlet Set-MailboxRegionalConfiguration ausführen zu können.
Wenn diese Option nicht verfügbar ist oder nicht funktioniert, verwenden Sie Option 2.
Sie können das MFCMAPI-Tool verwenden, um den Junk-Email-Ordner wieder unter den Obersten Informationsspeicher oder auf die gleiche Ebene wie die anderen Standardpostfachordner zu bringen.
Content retrieved from: https://learn.microsoft.com/de-de/outlook/troubleshoot/user-interface/incorrect-folder-names.
Several years ago, I needed to partition a network into separate VLANs. The switches I had were capable, but I wasn’t. I was having trouble understanding what the terms meant (Tagged, Untagged, Excluded) and how to configure each port to achieve my desired result. I had trouble finding a good I-don’t-really-care-that-much-about-VLANS-or-Cisco-documentation-I-just-want-this-to-work-so-I-can-get-on-with-what-I-am-really-trying-to-do kind of explanation, so I thought I would write one. Remember I said that was years ago? My TODO list is very long.
The switches I was using in this project were Cisco/Linksys SGE2000P which is a “small business” switch.
Any port that is going to carry traffic between 2 switches must be able to carry packets from all of the VLANs so therefore must be included in every VLAN that must transit that link. The switch on the other end must be able to determine which VLAN to forward the packet to so the packets sent out that port must be tagged. It is also important that both switches understand VLANs.
Any port that is going to connect to a non-switch device must be marked untagged in the VLAN the device is supposed to be a part of.
Say you want to create 3 different networks with 2 VLAN capable 16 port switches. We’ll use VLAN IDs 7, 8, and 9.
We want to configure the networks thusly:
So configure the ports like this:
Switch #1 | |||
---|---|---|---|
Port | VLAN 7 | VLAN 8 | VLAN 9 |
1 | Untagged | Excluded | Excluded |
2 | Untagged | Excluded | Excluded |
3 | Untagged | Excluded | Excluded |
4 | Excluded | Untagged | Excluded |
5 | Excluded | Untagged | Excluded |
6 | Excluded | Excluded | Untagged |
7 | Excluded | Excluded | Untagged |
8 | Excluded | Excluded | Untagged |
9 | Excluded | Excluded | Untagged |
10 | Excluded | Excluded | Untagged |
11 | Excluded | Excluded | Untagged |
12 | Excluded | Excluded | Untagged |
13 | Excluded | Excluded | Untagged |
14 | Excluded | Excluded | Untagged |
15 | Excluded | Excluded | Untagged |
16 | Tagged | Tagged | Tagged |
Switch #2 | |||
---|---|---|---|
Port | VLAN 7 | VLAN 8 | VLAN 9 |
1 | Untagged | Excluded | Excluded |
2 | Untagged | Excluded | Excluded |
3 | Excluded | Untagged | Excluded |
4 | Excluded | Untagged | Excluded |
5 | Excluded | Untagged | Excluded |
6 | Excluded | Excluded | Untagged |
7 | Excluded | Excluded | Untagged |
8 | Excluded | Excluded | Untagged |
9 | Excluded | Excluded | Untagged |
10 | Excluded | Excluded | Untagged |
11 | Excluded | Excluded | Untagged |
12 | Excluded | Excluded | Untagged |
13 | Excluded | Excluded | Untagged |
14 | Excluded | Excluded | Untagged |
15 | Excluded | Excluded | Untagged |
16 | Tagged | Tagged | Tagged |
Content retrieved from: https://www.megajason.com/2016/03/03/how-to-set-up-vlans-when-you-dont-understand-vlans/.
As outlined in the vSphere 7.0 release notes (which everyone should carefully read through before upgrading), the following CPU processors are no longer supported:
To help put things into perspective, these processors were released about 10 years ago! So this should not come as a surprise that VMware has decided remove support for these processors which probably also implies the underlying hardware platforms are probably quite dated as well. In any case, this certainly has affected some folks and from what I have seen, it has mostly been personal homelab or smaller vSphere environments.
One of my readers had reached out to me the other day to share an interesting tidbit which might help some folks prolong their aging hardware for another vSphere release. I have not personally tested this trick and I do not recommend it as you can have other issues longer term or hit a similiar or worse situation upon the next patch or upgrade.
Disclaimer: This is not officially supported by VMware and you run the risk of having more issues in the future.
Per the reader, it looks like you can append the following ESXi boot option which will allow you to bypass the unsupported CPU during the installation/upgrade. To do so, just use SHIFT+O (see VMware documentation for more details) and append the following:
allowLegacyCPU=true
There have also been other interesting and crazy workarounds that attempt to workaround this problem. Although some of these tricks may work, folks should really think long term on what other issues can face by deferring hardware upgrade. I have always looked at homelab as not only a way to learn but to grow yourself as an individual.
Note: The boot option above is only temporarily and you will need to pass in this option upon each restart. It looks like this setting is also not configurable via ESXCLI which I initially had thought, so if you are installing this on a USB device, the best option is to edit the boot.cfg and simply append the parameter to kernelopt line so it’ll automatically be included for you without having to manually typing this. If this is install on disk, then you will need to edit both /bootbank/boot.cfg and /altbootbank/boot.cfg for the settings to passed in automatically.
This is ultimately an investment you are making into yourself, so do not cut yourself short and consider looking at a newer platform, especially something like an Intel NUC which is fairly affordable both in cost as well as power, cooling and form factor.
Content retrieved from: https://williamlam.com/2020/04/quick-tip-allow-unsupported-cpus-when-upgrading-to-esxi-7-0.html.
The general recommendation is to use the standard MTU of 1500 for iSCSI connectivity.
This recommendation is predicated upon several things:
The key takeaway here is know your environment. If you find jumbo frames are optimal for your environment please have all proper parties involved from end-to-end to ensure everything is implemented correctly.
If you decide to implement jumbo frames, the following command is vital to ensure you have properly configured your environment end-to-end:
vmkping -I <iscsi_vmk_interface> -d -s 8972 <ip_addr_of_target>
This ensures packets are not fragmented during the ping test (-d) and tests jumbo frames (-s 8972).
If you try to convert / upgrade Windows Server Evaluation to a licensed full edition using the normal command line or the CHANGE KEY GUI, you will see errors like: The product key you entered didn’t work, Check the product key and try again or enter a different one
Fortunately, there is an easy fix. You have to change Windows Server Eval editions to a production licensed versions of Standard or Data Center:
The most obvious reason for converting to Core is performance: you get more bang for your buck on the same hardware by reducing unused operating-system components from running. Performance benefits include:
For Fastvue Reporter running as a syslog server, the uptime is vital because messages can be missed and only caught much later when the historical log archive rolls over at midnight. The more stable and robust your platform is, the lower the potential for lost log data.
The additional performance gains and improved uptime is nice, but even without these benefits, some still prefer to run Core from a security perspective. Having less code and tools on a system makes it harder to attack, and once compromised, it makes it less useful to the attacker.
Security benefits of this switch include:
There are many compelling reasons to switch from Full GUI to Core, but the question that comes up most often involves management. „How would I manage the switch to Core?“. This is normally followed closely by „My staff only know how to use the GUI. What if we need need it for some reason?“.
Back in Windows Server 2008, you selected whether you want Core or Full GUI. It was a one-way trip.
But now in Windows Server 2012, you have the option of switching between modes. Depending on how you switch, your experience is either simple, or requires a bit more time and effort.
I am going to show you how to switch between Windows Server Core Mode and the full GUI mode the easy way, Based on my several years of experience to figuring out the „best way“ of doing it.
The steps include:
I am going to configure my Fastvue Reporter Server as a Hyper-V Virtual Machine with dynamic RAM in order to take advantage of the reduced requirements of Windows Core Mode.
Fastvue Reporter is a good candidate for virtualisation and running Windows Core Mode because of its predictable CPU and RAM requirements. It is also more resource-hungry when other servers are typically not because Fastvue Reporter generates reports on a schedule at midnight each day, week, and end of the month.
This works best on host and guest OS of Windows Server 2012 R2. To configure your server:
You may also like to see our article on Understanding Hyper-V Dynamic Memory (Dynamic RAM).
Don’t worry. Switching from the full GUI to Windows Core Mode is a reversible step. You can always bring the GUI back.
There are two ways to remove the GUI and switch to Core Mode:
I recommend using PowerShell, as when you use the ‚Remove Roles and Features‘ wizard, it also removes all the binary components instead of simply disabling them. This makes switching back to the full GUI version much more difficult as you need to provide the installation source media.
To switch to Windows Core Mode using PowerShell, open a PowerShell Console as Administrator and execute these two commands
Uninstall-WindowsFeature Server-Gui-Shell Uninstall-WindowsFeature Server-Gui-Mgmt-Infra –Restart
The server will reboot and everything will look normal until you log on. When you log on, you get a command shell, nothing more. Welcome to Windows Server Core!
You should be using this method for administering your servers already. If you are not, here is a quick intro to using the Windows Remote Server Administration Tools (RSAT). Various RSAT snap-ins can be added to a machine at any stage.
You can also elect to use a Windows client machine as your management station. If so, download and install the RSAT tools for Windows.
If you ever need to restore the GUI onto the server, simply reverse the commands we issued earlier at any stage. This works because we did not explicitly use the –Remove flag, like the GUI method would have.
You can do this remotely or by logging onto the server and using the following steps:
To switch back to Full FUI mode, open a PowerShell Console as Administrator and execute these commands:
Install-WindowsFeature Server-Gui-Shell, Server-Gui-Mgmt-Infra –Restart
Then wait for reboot.
Your machine will now boot back with the full Windows GUI.
Using Windows Server Core for back-end infrastructure without requiring a user to login on a console is a great way to maximise your performance on a shared infrastructure. Thanks to the tools available now, it is easier than ever to manage Core through PowerShell or remotely via RSAT.
Using the PowerShell method in this article makes switching back and forth between Core and GUI simple.
Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.