banner
Nachrichtenzentrum
Umfangreiches Wissen in Vertrieb und Produktion

GTMNet: ein Vision-Transformator mit geführter Übertragungskarte für die Enttrübung einzelner Fernerkundungsbilder

Jan 17, 2024

Scientific Reports Band 13, Artikelnummer: 9222 (2023) Diesen Artikel zitieren

35 Zugänge

Details zu den Metriken

Vorhandene Enttrübungsalgorithmen sind für Fernerkundungsbilder (RSIs) mit dichter Trübung nicht effektiv, und enttrübte Ergebnisse neigen zu übermäßiger Verstärkung, Farbverzerrung und Artefakten. Um diese Probleme anzugehen, schlagen wir ein GTMNet-Modell vor, das auf Convolutional Neural Networks (CNNs) und Vision Transformers (ViTs) basiert und mit Dark Channel Prior (DCP) kombiniert wird, um eine gute Leistung zu erzielen. Insbesondere wird zunächst eine SFT-Schicht (Spatial Feature Transform) verwendet, um die geführte Transmissionskarte (GTM) reibungslos in das Modell einzuführen und so die Fähigkeit des Netzwerks zur Schätzung der Dunstdicke zu verbessern. Anschließend wird ein verstärktes SOS-Modul (Stärke-Operieren-Subtrahieren) hinzugefügt, um die lokalen Merkmale des wiederhergestellten Bildes zu verfeinern. Der Rahmen von GTMNet wird durch Anpassen der Eingabe des SOS-Booster-Moduls und der Position der SFT-Schicht bestimmt. Im SateHaze1k-Datensatz vergleichen wir GTMNet mit mehreren klassischen Dehazing-Algorithmen. Die Ergebnisse zeigen, dass PSNR und SSIM von GTMNet-B bei Teildatensätzen von mäßigem Nebel und dichtem Nebel mit denen des hochmodernen Modells Dehazeformer-L vergleichbar sind, mit nur dem 0,1-fachen der Parametermenge. Darüber hinaus ist unsere Methode intuitiv wirksam bei der Verbesserung der Klarheit und der Details von enttrübten Bildern, was die Nützlichkeit und Bedeutung der Verwendung des vorherigen GTM und des SOS-verstärkten Moduls in einer einzigen RSI-Enttrübung beweist.

Fernerkundungssatelliten und Sensoren für unbemannte Luftfahrzeuge (UAV) sind anfällig für atmosphärische Phänomene, die den Kontrast und die Farbtreue der gesammelten Bilder beeinträchtigen können, was zu schwächeren Bilddetails führt und die Erkennung von Informationen im Bild erschwert. Dunst, Nebel und Rauch sind sehr häufige atmosphärische Phänomene, die durch atmosphärische Absorption und Streuung entstehen. Bei der Anwendung der Fernerkundungstechnologie in den Bereichen Polizeisicherheit, Pflanzenschutz in der Land- und Forstwirtschaft, Inspektion von Strompatrouillen, Landressourcenvermessung und ähnlichen Anwendungen ist es von großer Bedeutung, Dunst, Nebel und Rauch genau aus Fernerkundungsbildern zu entfernen (RSIs) zur Zielerkennung, Zielverfolgung und UAV-Erkennung. Der Einfachheit halber wird der Begriff „Dehazing“ einheitlich für die Entfernung von Dunst, Nebel und Rauch verwendet.

Bei der Bildenttrübungsaufgabe wird häufig der folgende Ausdruck verwendet, um das verschwommene Bild als 1,2,3 zu beschreiben:

wobei \(I(x)\), \(J(x)\), A und t das verschwommene Bild, das schleierfreie Bild, das globale atmosphärische Licht bzw. die Transmissionskarte bezeichnen. Das Entschärfen einzelner Bilder ist ein anspruchsvolles Problem, das aufgrund der unbekannten Tiefeninformationen nicht ausreichend eingeschränkt ist. Derzeit wurden zahlreiche Entnebelungsalgorithmen aus verschiedenen Richtungen vorgeschlagen.

Frühe Prior-basierte Ansätze haben sich als wirksam erwiesen. Unter Verwendung von Gl. (1), \(A\) und \(t\) müssen genau geschätzt werden, um klare Bilder wiederherzustellen. Eine der repräsentativsten ist die Dark-Channel-Prior-Methode (DCP)4 zur Bestimmung der Zuordnungsbeziehung zwischen klaren Bildern und atmosphärischen physikalischen Modellen, bei der es sich um einen relativ stabilen Enttrübungsalgorithmus handelt. Allerdings führt der Enttrübungseffekt in großen Weißflächen tendenziell zu großen Abweichungen. Daher verwenden mehrere Forscher datengesteuerte Deep-Learning-Ansätze5,6, um die Zwischenparameter des atmosphärischen Streumodells abzuschätzen und eine Zuordnungsbeziehung vom verschwommenen Bild zu den Zwischenparametern zu erstellen. Diese Deep-Learning-Algorithmen basieren auf dem atmosphärischen Streumodell. Obwohl sie sich im Himmelsbereich erheblich verbessert haben und visuell effektiver als herkömmliche Methoden sind, sind die Modelle äußerst komplex und anfällig für die Einschränkungen durch atmosphärische Beleuchtung und Szenenwechsel, was zu einer schlechten Echtzeitleistung und einer abgedunkelten Helligkeit des wiederhergestellten Bildes führt. Um diese Probleme anzugehen, prognostizieren mehrere Algorithmen die latent schleierfreien Bilder direkt und durchgängig. Huang et al.7 schlugen ein bedingtes generatives kontradiktorisches Netzwerk vor, das RGB- und SAR-Bilder zur Enttrübung verwendet. Mehta et al.8 haben SkyGAN speziell für die Entfernung von Dunst in Luftbildern entwickelt und sich damit der Herausforderung begrenzter verschwommener hyperspektraler Luftbilddatensätze angenommen.

In den letzten Jahren hat sich Vision Transformer (ViT)9 bei anspruchsvollen Vision-Aufgaben hervorgetan und sich auf die Modellierung langfristiger Abhängigkeiten in Daten konzentriert. Allerdings waren frühere ViT- und Pyramid Vision Transformer (PVT)10 überparametrisiert und rechenintensiv. So ließen sich Liang et al.11 von Swin-Transformer12 inspirieren und schlugen SwinIR vor, das aus mehreren Residual Swin Transformer Blocks (RSTB) mit jeweils mehreren Swin Transformer-Schichten und einer Restverbindung besteht. Uformer13 führte einen neuartigen lokal erweiterten Fenstertransformatorblock (LeWin) und einen lernbaren Multiskalen-Wiederherstellungsmodulator in Form einer Multiskalen-Raumverzerrung ein, um Merkmale in mehreren Schichten des Uformer-Decoders anzupassen. Dong et al.14 schlugen TransRA vor, ein neuronales Netzwerk mit zwei Zweigen, das mit Transformator und Restaufmerksamkeit verschmolzen ist, um feine Details von RSIs zur Dunstentfernung wiederherzustellen. Song et al.15 schlugen einen Dehazeformer vor, der auf Swin-Transformer12 und U-Net16 basiert, die Standardisierungsschicht, die Aktivierungsfunktion und das räumliche Informationsaggregationsschema modifizierte und weiche Einschränkungen unter Verwendung eines schwachen Prior einführte. Der Dehazeformer hat im Vergleich zu früheren Methoden bei SOTS-Innendatensätzen eine überlegene Leistung gezeigt und ist gleichzeitig effizienter mit weniger Parametern und geringeren Rechenkosten. Aufgrund natürlicher Bedingungen und Einschränkungen der Ausrüstung ist es jedoch schwierig, ausreichend gepaarte, verschwommene RSI-Datensätze zu erhalten. Wenn die Trainingsproben klein sind und dichte Trübungsbilder enthalten, schneidet der Dehazeformer bei der RSI-Enttrübung schlecht ab.

Zusammenfassend lässt sich sagen, dass bei RSI-Dehazing-Aufgaben sowohl lokale als auch globale Merkmale wichtig sind und herkömmliche Bild-Dehazing-Methoden auf soliden theoretischen Grundlagen basieren, die das Netzwerklernen leiten können. Daher haben wir ein neues RGB-Fernerkundungsbild-Dehazing-Modell (GTMNet) basierend auf Dehazeformer entworfen, indem wir die Modellarchitektur rekonstruiert und DCP in das vorgeschlagene Netzwerk kombiniert haben. Aufgrund der Downsampling-Vorgänge im Encoder des Dehazeformers können die komprimierten räumlichen Informationen möglicherweise nicht effektiv vom Decoder des Dehazeformers abgerufen werden. Daher verwenden wir in dieser Arbeit die Strategie „Stärken-Operieren-Subtrahieren“ (SOS) im Decoder, um komprimiertere Informationen abzurufen und latente, schleierfreie Bilder schrittweise wiederherzustellen. Wir vergleichen auch mehrere fortschrittliche Dehazing-Modelle mit GTMNet und überprüfen die Anwendbarkeit des vorgeschlagenen Modells. Die Hauptbeiträge für dieses Papier lauten wie folgt: (1) Es wird eine neuartige Hybridarchitektur vorgeschlagen, die auf CNN und ViT basiert und DCP kombiniert. Im Vergleich zu anderen Referenzmodellen bietet es ein besseres PSNR und SSIM; (2) Die durch geführte Filterung und eine lineare Transformation optimierte Transmissionskarte wird über die SFT-Schicht (Spatial Feature Transform) reibungslos in das Modell eingeführt, was eine bessere Schätzung der Dunstdicke im Bild ermöglicht und somit die Leistung verbessert. (3) Um das wiederhergestellte Bild im Feature-Recovery-Modul schrittweise zu verfeinern, wird das SOS-Boosted-Modul über eine Skip-Verbindung in die Image-Dehazing-Aufgabe integriert.

In diesem Abschnitt werden die Details von GTMNet vorgestellt. Zuerst stellen wir das DCP vor. Dann schätzen wir die Übertragungskarte. Abschließend beschreiben wir die Details der SFT-Schicht, des SOS-Boosted-Moduls und des SK-Fusionsmoduls.

Er et al.4 führten eine statistische Analyse von mehr als 5.000 trübungsfreien Außenbildern in Nichthimmelsregionen durch und stellten fest, dass es häufig einige Pixel mit sehr niedrigen Werten in mindestens einem Farbkanal gibt. Formal ist die dunkle Primärfarbe des schleierfreien Bildes \(J(x)\) definiert als:

wobei c einen Kanal unter den R-, G- und B-Kanälen darstellt; Ω(x) ist ein lokales Quadrat mit Mittelpunkt bei x; \({J}^{c}\) repräsentiert einen bestimmten Farbkanal von \(J\). Die Beobachtung zeigt, dass, wenn \(J\) ein schleierfreies Außenbild ist, mit Ausnahme der Himmelsregion, der Pixelwert von \({J}^{dark}\) tendenziell 0 ist. Die obige statistische Beobachtung ist wird als DCP oder dunkle Primärfarbe bezeichnet.

Um ein klares, schleierfreies Bild \(J\) in Gl. (1) ist es notwendig, A und t zu lösen. Gleichung (1) kann wie folgt umgeschrieben werden:

Laut DCP kommt der Dunkelkanal eines Dunstbildes der Dunstdichte gut nahe. Daher wählten He et al.4 die obersten 0,1 % hellsten Pixel im dunklen Kanal des verschwommenen Bildes aus. Unter diesen Pixeln wird das Pixel mit der höchsten Intensität im Eingabebild I als atmosphärisches Licht ausgewählt.

Unter der Annahme, dass die Übertragung in einem lokalen Patch Ω(x) konstant ist, kann die Übertragung des Patches \(\widehat{t}\left(x\right)\) wie folgt definiert werden:

Wie in der Literatur4 erwähnt, sind entfernte Objekte selbst bei klarem Wetter mehr oder weniger von Dunst betroffen. Daher steuern die Autoren den Grad der Dunst durch Einführung eines Faktors ω von [0,1], um einen Eindruck von der Schärfentiefe zu vermitteln . Der spezifische Ausdruck ist:

wobei ω üblicherweise mit 0,95 angenommen wird.

Aufgrund der lokalen Annahmen wird die geschätzte Übertragungskarte \(\widehat{t}\left(x\right)\) Blockeffekte aufweisen. Bei herkömmlichen Methoden zur Bildenttrübung wird \(\widehat{t}\left(x\right)\) normalerweise mithilfe der Soft-Matting-Methode, der geführten Filterung oder der schnell geführten Filterung verfeinert. Obwohl mit der Soft-Matting-Methode gute Ergebnisse erzielt werden können, sind die Kanteninformationen des Objekts schwach und zeitaufwändig. Daher verwenden wir zur Optimierung einen schnell geführten Filter17, bei dem der Filterfensterradius auf 60 und der Regularisierungsparameter e auf 0,0001 eingestellt ist.

Abbildung 1 zeigt die relevanten Ergebnisse der Übertragungskarten im SateHaze1k-Datensatz. Wir stellen fest, dass die durch den Fast-Guided-Filter in Abb. 1c optimierte Transmissionskarte die verschwommene Verteilung des Eingabebildes objektiv abschätzen kann. Die Einführung des DCP in diesem Artikel zielt jedoch darauf ab, die Trübungskonzentration abzuschätzen. Wie in Abb. 1d gezeigt, haben wir zur Hervorhebung der Dunstdicke im Bild eine lineare Transformation verwendet, um die optimierte Transmissionskarte t zu verbessern, und sie als geführte Transmissionskarte (GTM) t1 definiert, die wie folgt formuliert werden kann:

Ergebnisse der Übertragungskarten im SateHaze1k-Datensatz: (a) Eingabebilder; (b) Dunkle Kanalkarten; (c) Die durch einen schnellgeführten Filter optimierten Übertragungskarten; (d) Die geführten Übertragungskarten.

Wie in Abb. 2 und Tabelle 1 dargestellt, basiert das vorgeschlagene Netzwerk GTMNet auf Dehazeformer, enthält jedoch SFT-Schichten18 und SOS-Boost-Module. SFT-Schichten integrieren das GTM in GTMNet, wodurch die Merkmale des GTM und des Eingabebilds effektiv zusammengeführt werden können, um die Dunstdicke im Eingabebild genauer abzuschätzen. SOS-verstärkte Module können klare Bilder iterativ wiederherstellen. Am Ende des Decoders wird eine weiche Rekonstruktionsschicht verwendet, um das schleierfreie Bild \(\widehat{J}\) zu schätzen.

Die Gesamtarchitektur des vorgeschlagenen GTMNet.

Die SFT-Schicht wird zunächst in Super-Resolution-Aufgaben angewendet18. Es ist parametereffizient und kann mit hoher Erweiterbarkeit einfach in bestehende Entnebelungsnetzwerkstrukturen eingeführt werden. Wie in Abb. 3 gezeigt, verwenden wir das GTM t1 als zusätzliche Eingabe der SFT-Schicht, die zunächst drei Faltungsschichten anwendet, um die bedingten Karten φ aus dem GTM zu extrahieren; dann werden die bedingten Karten φ in die anderen beiden Faltungsschichten eingegeben, um die Modulationsparameter γ bzw. β vorherzusagen; Schließlich wird die Transformation durch Skalieren und Verschieben von Feature-Maps einer bestimmten Ebene durchgeführt, und wir können die ausgegebenen verschobenen Features erhalten durch:

Dabei sind F die Merkmalskarten mit den gleichen Dimensionen wie γ und β, ⊙ bezieht sich auf die elementweise Multiplikation, also das Hadamard-Produkt, und ⊕ ist die elementweise Addition. Da die räumlichen Dimensionen erhalten bleiben, führt die SFT-Schicht eine merkmalsbezogene Manipulation und räumliche Transformation durch. Da die Größe jedes Objekts in RSIs im Allgemeinen winzig ist, ist die Erfassung lokaler Merkmale von entscheidender Bedeutung. In diesem Artikel haben wir SFT-Schichten mit gemeinsamen Parametern verwendet, um die begrenzte Fähigkeit des Transformers auszugleichen, lokale Merkmale zu erfassen.

Die Struktur der SFT-Schicht.

Die SOS-Boosting-Methode19 hat sich mathematisch als effektiv für die Bildrauschunterdrückung erwiesen, die schrittweise klare Bilder wiederherstellt. Dong et al.20 haben eine Vielzahl optionaler SOS-Boost-Module verifiziert, und die Ergebnisse zeigen, dass das folgende Boost-Schema die beste Wirkung hat, wie in Gleichung (1) gezeigt. (8):

wobei \(Up(.)\) den Upsampling-Operator unter Verwendung einer Pixel-Shuffle-Methode21 bezeichnet, \({S}^{n+1}\) das Feature der vorherigen Ebene darstellt und \({I}^{n}\) bezeichnet das latente Merkmal vom Encoder, \(({I}^{n}+Up{(S}^{n+1}))\) stellt das verstärkte Merkmal dar und \({\mathcal{G}}_{ {\theta }_{n}}^{n}\) bezeichnet die trainierbare Verfeinerungseinheit auf der (n)-ten Ebene, parametrisiert durch \({\theta }_{n}\). Gemäß der vorgeschlagenen Architektur gilt Gl. (8) wird als Gl. geschrieben. (9):

wobei \({J}^{n+1}\) das Feature aus dem Dehazeformer-Block des Decoders bezeichnet. Das SOS-Booster-Modul besteht aus drei Restblöcken, wie in Abb. 4 dargestellt.

Die Struktur des SOS-verstärkten Moduls.

Song et al.22 haben ein selektives Kernel-Fusionsmodul (SK) entwickelt, das von SKNet23 inspiriert ist, um mehrere Zweige mithilfe der Kanalaufmerksamkeit zu verschmelzen. Wir verwenden das SK Fusion-Modul22, um die SOS- und Decoder-Zweige zu fusionieren. Lassen Sie insbesondere zwei Feature-Maps \(x1\) und \(x2\), eine lineare Ebene \(f\left(.\right)\) wird zuerst verwendet, um \(x1\) auf \(\widehat{x }1\). Dann werden ein globales Durchschnittspooling \(GAP\left(.\right)\), ein Multilayer-Perceptron \(MLP\left(.\right)\), eine Softmax-Funktion und eine Split-Operation verwendet, um Fusionsgewichte zu erhalten, wie gezeigt in Gl. (10):

Schließlich werden Gewichte \(\left\{a1,a2\right\}\) verwendet, um \(\widehat{x}1\), \(x2\) mit einem zusätzlichen kurzen Residuum über \(y=a1\) zu fusionieren. Widehat{x}1+a2x2+x2\).

In diesem Teil stellen wir zunächst Datensätze und die Implementierungsdetails von GTMNet vor. Anschließend evaluieren wir unsere Methode anhand von RS-Haze- und SateHaze1k-Datensätzen. Abschließend werden Ablationsstudien und andere Vergleichsexperimente durchgeführt, um den vorgeschlagenen Ansatz zu analysieren.

RS-Haze22 ist ein synthetischer, dunstiger RSI-Datensatz, der aus 76 RSIs mit unterschiedlicher Topographie mit guten Wetterbedingungen und 108 bewölkten RSIs synthetisiert wurde. Alle Bilder werden vom Datenprodukt Landsat-8 Level 1 auf EarthExplorer heruntergeladen. Der endgültige Trainingssatz enthält 51.300 RSI-Paare und der Testsatz enthält 2.700 RSI-Paare mit einer Bildauflösung von 512 × 512. Da die vorgeschlagene Methode auf dem Dehazeformer-Modell optimiert ist, stimmt der Versuchsaufbau mit dem Dehazeformer überein22. Wir trainieren das Modell mit L1-Verlust für 150 Epochen, von denen jede einmal validiert wird. Die Bilder im Testsatz stimmen mit denen im Verifizierungssatz überein.

SateHaze1k7 ist auch ein synthetischer Dunst-Satelliten-Fernerkundungsdatensatz, der Photoshop-Software als Hilfswerkzeug verwendet, um reichhaltige, reale und vielfältige Dunstbilder zu erzeugen. Dieser Datensatz enthält 1.200 RSI-Paare, und jedes Bildpaar enthält ein verschwommenes Bild und ein echtes schleierfreies Bild. Diese Bilder sind in drei Teilmengen von Dunstbildern unterteilt: dünner Nebel, mäßiger Nebel und dicker Nebel, mit einer Bildauflösung von 512 × 512. Wir wählen 320 Bildpaare aus jeder Art von Teilmenge von Dunstbildern als Trainingssatz und 45 Bildpaare aus als Testsatz. Jede Art von Teilmenge verschwommener Bilder wird separat trainiert und getestet. Da der SateHaze1k-Datensatz klein ist, trainieren wir GTMNet für 1000 Epochen und überprüfen es alle zehn Epochen. Andere experimentelle Konfigurationen entsprechen denen des RS-Haze-Datensatzes.

Wir stellen vier Varianten von GTMNet bereit (-T, -S, -B und -L für Tiny, Small, Basic und Large), implementieren die vorgeschlagene Netzwerkstruktur mithilfe des PyTorch-Frameworks und trainieren das Modell auf einer NVIDIA GeForce RTX3090 . Während des Trainings werden Bilder zufällig auf 256 × 256 Patches zugeschnitten. Wir legen unterschiedliche Mini-Batch-Größen für verschiedene Varianten fest, z. B. {32, 16, 8, 4} für {-T, -S, -B, -L}. Die anfängliche Lernrate ist für die Variante {-T, -S, -B, -L} auf {4, 2, 2, 1} × 10–4 festgelegt. Wir verwenden den AdamW-Optimierer24 mit einer Cosinus-Annealing-Strategie25, um das Modell zu trainieren, wobei die Lernrate allmählich von der anfänglichen Lernrate auf {4, 2, 2, 1} × 10–6 abnimmt.

Der vorgeschlagene Mechanismus für das GTMNet-Training ist in Algorithmus 1 dargestellt. Alle lernbaren Parameter in GTMNet werden mithilfe der Strategie der abgeschnittenen Normalverteilung initialisiert26.

Wir verwenden das Spitzensignal-Rausch-Verhältnis (PSNR) und die Messung des Strukturähnlichkeitsindex (SSIM) als objektive Bewertungsindikatoren und vergleichen die Anzahl der Parameter zwischen GTMNet und anderen Methoden, wie in den Tabellen 2 und 3 dargestellt, wobei Fettdruck den optimalen Wert angibt Unterstreichung zeigt den suboptimalen Wert an.

Aufgrund der Ausrüstungsbeschränkungen werden auf -T nur Tests und Schulungen durchgeführt. Wir vergleichen die vorgeschlagene Methode mit vier anderen klassischen Enttrübungsalgorithmen. Wie in Tabelle 2 gezeigt, ist das PSNR unserer Methode etwas niedriger als das von Dehazeformer-T, während das SSIM bei beiden gleich ist. Da die vorgeschlagene Architektur über mehr Parameter verfügt, ist eine Überanpassung einfacher, was zu einer schlechten Generalisierungsleistung führt.

Wir vergleichen die vorgeschlagene Methode mit DCP4, DehazeNet5, Huang (SAR)7, SkyGAN8, TransRA14 und Dehazeformer22. Die Ergebnisse sind in Tabelle 3 aufgeführt. Die PSNR und SSIM von GTMNet-T in den drei Unterdatensätzen sind besser als die von Insbesondere mit Dehazeformer-T22 wird das PSNR bei dünnem Nebel um fast 2,6 % verbessert und das SSIM von 0,968 auf 0,970 erhöht. Bei mäßigem Nebel erreichen PSNR und SSIM von GTMNet-B 27,22 dB bzw. 0,973, was einer Steigerung von 7,2 % bzw. 7,6 % im Vergleich zu SkyGAN8 entspricht. Obwohl das PSNR von GTMNet-B bei dichtem Nebel niedriger ist als das von Huang (SAR)7 und SkyGAN8, verbessert sich die SSIM-Metrik im Vergleich zu den beiden Algorithmen um 8,7 % bzw. 5,2 %. Bei den drei Teildatensätzen erreicht GTMNet-T bessere PSNR- und SSIM-Werte als TransRA14, mit einer deutlichen Verbesserung der PSNR-Leistung.

Wie in Tabelle 3 gezeigt, ist das vorgeschlagene Modell in Kombination mit den oben genannten quantitativen Vergleichsergebnissen immer noch leichtgewichtig, obwohl die Parameter leicht gestiegen sind. Bei den Unterdatensätzen „Mäßiger Nebel“ und „Dicker Nebel“ ist die Leistung von GTMNet-B vergleichbar mit Dehazeformer-L, jedoch mit nur dem 0,1-fachen der Anzahl an Parametern. Die Leistung von GTMNet-L ist jedoch schlechter als die von Dehazeformer-L, was auf zwei Aspekte zurückzuführen sein kann: Erstens macht die erhöhte Parametermenge von GTMNet-L es anfälliger für Überanpassungen; Zweitens ist die Generalisierungsfähigkeit von GTMNet-L aufgrund des kleinen Datensatzes verringert.

An den Datensätzen RS-Haze und SateHaze1k wurde ein qualitativer Vergleich verwandter Methoden durchgeführt. Da Song et al.22 die bestehenden erweiterten Dehaze-Bildmethoden am RS-Haze-Datensatz verglichen haben, präsentieren wir hier nur die dehazeten Bilder von GTMNet-T und Dehazeformer-T. Wie in Abb. 5 gezeigt, gibt es auf den RS-Haze-Bildern kaum einen visuellen Unterschied zwischen GTMNet-T und Dehazeformer-T. Beide zeigen Klarheit, reichhaltige Funktionsinformationen, realistische Farben und ein Gefühl der Hierarchie.

Qualitativer Vergleich von Methoden zur Bildenttrübung im RS-Haze-Datensatz.

Im SateHaze1k-Datensatz präsentieren wir die qualitativen Vergleichsergebnisse von GTMNet und modernsten Methoden. Die verschwommenen Eingabebilder umfassen Ackerland, Straßen, Gebäude und Vegetation, wie in Abb. 6 dargestellt. Wir haben festgestellt, dass die DCP4-Methode fehlgeschlagen ist, möglicherweise aufgrund der Ähnlichkeit zwischen den Farben des atmosphärischen Lichts und des Objekts. Obwohl die Methode von Huang (SAR)7 Dunst entfernen kann, sind die Bodenmerkmalsinformationen des wiederhergestellten Bildes im dichten Dunstbereich nicht reich genug und die Gebäudedetails werden stark geschwächt. Im Allgemeinen gelang es sowohl DehazeNet5 als auch SkyGAN8 nicht, die Trübung vollständig zu entfernen (wie im Verarbeitungsergebnis des ersten verschwommenen Bildes in Abb. 6 gezeigt), was zu einer unnatürlichen Farbe des Bildes und einer schwachen Wiederherstellungsfähigkeit für detaillierte Informationen führte. Dehazeformer-T22 und GTMNet-T lösen das Problem der unvollständigen Bildenttrübung. In Bereichen mit starkem Dunst oder Wolkendunst leidet der Dehazeformer-Algorithmus jedoch unter erheblichen Farbverzerrungen. GTMNet verbessert nicht nur das Problem der Bildfarbabweichung, sondern auch die Schärfe.

Qualitativer Vergleich von Methoden zur Bildenttrübung im SateHaze1k-Datensatz.

In diesem Teil führen wir Ablationsstudien an der vorgeschlagenen Modellstruktur durch, um die Faktoren zu analysieren, die die Ergebnisse beeinflussen können. In diesen Studien sind die anderen Strategien, mit Ausnahme unterschiedlicher Probanden, in jeder Versuchsgruppe gleich.

Um den Einfluss verschiedener Komponenten auf den Bildenttrübungseffekt zu untersuchen, verwenden wir Dehazeformer-T22 als Basismodell und führen Ablationsexperimente an verschiedenen Komponenten im SateHaze1k-Datensatz7 durch.

Wie in Tabelle 4 gezeigt, bezieht sich D-SOS-T auf das Hinzufügen des SOS-Moduls zu Dehazeformer-T. Gemäß Tabelle 5 haben wir festgestellt, dass die PSNR- und SSIM-Indikatoren der drei Unterdatensätze erheblich verbessert wurden, was die Wirksamkeit des SOS-Moduls bei der Bildenttrübungsaufgabe bestätigt. D-GTM-T zeigt die Einführung des GTM als Vorstufe in Dehazeformer-T durch zwei SFT-Schichten an. Die Lage der SFT-Schicht ist in Abb. 9b dargestellt. Gemäß Tabelle 5 ist die Leistung, wenn nur ein vorheriger GTM zu Dehazeformer-T hinzugefügt wird, ohne die SOS-Boost-Strategie zu verwenden, bei mäßigem Nebel besser als die von Dehazeformer-T, bei dünnem Nebel und dichtem Nebel ist die Wirkung jedoch gering. Wir glauben, dass dies daran liegt, dass die Methode zum Erhalten von GTM auf Statistiken für gewöhnliche Bilder basiert, bei denen eine große Lücke zwischen RSIs und gewöhnlichen Bildern besteht. Herkömmliche frühere Methoden sind bei gleichmäßigen Dunstbildern effektiver.

Wie in Abb. 7 dargestellt, zeigen die von Dehazeformer-T, D-SOS-T und D-GTM-T erzeugten schleierfreien Bilder alle Gebäudeverzerrungen. Unter allen Methoden ist der Dehazing-Effekt von GTMNet der beste, der die Klarheit des wiederhergestellten Bildes gewährleisten und die Farbe des Bildes besser wiederherstellen kann. In den Unterdatensätzen „Dünner Nebel“ und „Dicker Nebel“ steigen die PSNR- und SSIM-Indikatoren stärker an, wenn die beiden Komponenten zusammen verwendet werden, als wenn sie getrennt verwendet werden.

Qualitativer Vergleich verschiedener Komponentenablationsmodelle im SateHaze1k-Datensatz.

Nach Gl. (8–9) haben wir zwei verschiedene Ablationsmodelle D-SOS-T und D-SOS1-T für den SateHaze1k-Datensatz entworfen. Die spezifische Konfiguration ist in Tabelle 6 dargestellt. Gemäß Tabelle 7 verringert sich PSNR im Vergleich zu D-SOS-T, wenn \({S}^{2}\) direkt hochgetastet und in SOS1 eingegeben wird (Abb. 2). 27,09 bis 26,77 dB, und der SSIM-Wert bleibt bei mäßigem Nebel unverändert. Darüber hinaus steigen PSNR und SSIM im Vergleich zu Dehazeformer-T von 26,38 dB bzw. 0,969 auf 26,77 dB bzw. 0,971.

Wie in Abb. 8 zu sehen ist, gibt es nur sehr geringe visuelle Unterschiede zwischen den entblendeten Bildern von D-SOS-T und D-SOS1-T. Im dichten Dunstbereich ist die Farbverzerrung stark und die Kantendetails gehen verloren, wie die Ergebnisse des dritten Dunstbilds in Abb. 8 zeigen. Zusammenfassend gilt: \(Up({J}^{2})\ ) ist als Eingang des SOS1-Moduls eingestellt.

Qualitativer Vergleich von Ablationsmodellen mit unterschiedlichen Eingaben in das SOS1-Modul im SateHaze1k-Datensatz.

Gemäß der Struktur des Modells kann die Position der SFT-Schichten in vier Situationen eingeteilt werden (wie in Abb. 9 dargestellt): (a) Verwendung nur einer SFT-Schicht vor dem Dehazeformer-Block1, (b) Verwendung nur einer SFT-Schicht hinter Dehazeformer-Block5, (c) unter Verwendung einer SFT-Schicht vor Dehazeformer-Block1 bzw. hinter Dehazeformer-Block5 (d. h. GTMNet) und (d) unter Verwendung einer SFT-Schicht vor Dehazeformer-Block2 bzw. hinter Dehazeformer-Block4. Wie in Tabelle 8 gezeigt, weist (d)-T den höchsten PSNR- und SSIM-Wert bei mäßigem Nebel auf, Tabelle 9 zeigt jedoch, dass GTMNet-B einen größeren Anstieg des PSNR- und SSIM-Werts aufweist als (d)-B. Darüber hinaus wird, wie aus den Vergleichsergebnissen in Abb. 10 hervorgeht, mit GTMNet-T das beste Enttrübungsergebnis erzielt, mit deutlich verbesserter Bildklarheit und weniger starker Bildfarbverzerrung, insbesondere im dritten verschwommenen Bild in Abb. 10.

Position der SFT-Schichten: (a) Vor dem Dehazeformer-Block1; (b) Hinter Dehazeformer-Block5; (c) Vor dem Dehazeformer-Block1 und hinter dem Dehazeformer-Block5; (d) Vor dem Dehazeformer-Block2 und hinter dem Dehazeformer-Block4.

Qualitativer Vergleich von Ablationsmodellen der SFT-Schicht und GTM im SateHaze1k-Datensatz.

Basierend auf den in Tabelle 8 gezeigten Ergebnissen kommen wir zu dem Schluss, dass das Hinzufügen von GTM sowohl zum Encoder als auch zum Decoder einen besseren Effekt auf die Entfernung von Trübungen aus den RSIs mit dünnem Nebel hat und dass das Hinzufügen von GTM allein zum Decoder eine bessere Wirkung auf die Entfernung von Trübungen aus den Moderate-RSIs hat Nebel- und Dicknebel-RSIs. Wir glauben, dass die Wirksamkeit von GTM nicht nur von der Dicke des Dunsts abhängt, sondern auch vom Vorhandensein oder Fehlen von SOS-verstärkten Modulen abhängt.

Unterschiedliche Transmissionskarten können sich auf die Dunstentfernungsleistung eines Modells auswirken. In unserem Experiment verwendeten wir zwei Arten von Übertragungskarten: die Übertragungskarte, die ausschließlich durch geführte Filterung optimiert wurde, genannt (c)-tT, und die GTM, die durch Optimierung der geschätzten Übertragungskarte über geführte Filterung und anschließende Anwendung einer linearen Transformation erhalten wurde. welches in GTMNet verwendet wurde. Wie in Tabelle 8 gezeigt, führt das GTM zu höheren PSNR- und SSIM-Indikatoren sowohl bei dünnem Nebel als auch bei dickem Nebel im Vergleich zur Übertragungskarte, die ausschließlich durch geführte Filterung optimiert wurde. Darüber hinaus zeigen die subjektive visuelle Bewertung und die objektiven quantitativen Metrikergebnisse, dass GTM auch für lokale dichte Dunstbilder geeignet ist und einen bemerkenswerten Enttrübungseffekt erzielt.

Gemäß der Trainingsmethode in Dehazeformer22 nimmt die anfängliche Lernrate des Modells mit abnehmender Chargengröße ab. Nach der linearen Skalierungsregel sollte die anfängliche Lernrate von GTMNet-B 1 × 10–4 betragen. Wir haben Ablationsexperimente an drei Unterdatensätzen durchgeführt und festgestellt, dass die Werte von PSNR und SSIM im Allgemeinen erheblich abnahmen, wenn wir die anfängliche Lernrate auf GTMNet-B reduzierten, wie in Tabelle 10 gezeigt, sodass wir die anfängliche Lernrate konstant hielten, d , 2 × 10–4, selbst wenn wir die Stapelgröße einer Iteration auf -B reduziert haben.

Um die Generalisierungsfähigkeit des GTMNet zu bewerten, wählen wir zwei reale, unbemannte, neblige RSIs aus der Luft zum Testen aus. Insgesamt ist die Dehazeformer-Methode suboptimal; Daher vergleichen wir in diesem Teil nur die Ergebnisse von GTMNet-T und Dehazeformer-T und verwenden das auf mäßigem Nebel trainierte -T-Modell, um die beiden realen Dunstbilder zu testen. Abbildung 11 zeigt kaum einen visuellen Unterschied zwischen den Verarbeitungsergebnissen, die mit dem vorgeschlagenen Algorithmus und Dehazeformer-T erzielt wurden. Beide Methoden liefern klare, reichhaltige Bodeninformationen und realistische Farben, was darauf hindeutet, dass beide Algorithmen für verschwommene Fernerkundungsbilder in der realen Welt geeignet sind. Wir haben zusätzliche visuelle Vergleiche in das Zusatzmaterial aufgenommen, um die Leistung unserer Methode an Bildern aus der realen Welt zu demonstrieren (Zusatzmaterial).

Quantitativer Vergleich von Dehazeformer und GTMNet für reale Bilder. Die verschwommenen Eingaben werden von einem DJI-Phantom 4 Pro erfasst.

Bei verschwommenen Bildern treten Probleme wie geringer Kontrast, geringe Sättigung, Detailverlust und Farbabweichung auf, die Bildanalyseaufgaben wie Klassifizierung, Positionierung, Erkennung und Segmentierung erheblich beeinträchtigen. Daher ist die Entnebelung in solchen Fällen von entscheidender Bedeutung, um Bilder mit guter Wahrnehmungsqualität zu erzeugen und die Leistung nachfolgender Computer-Vision-Aufgaben zu verbessern.

In diesem Abschnitt analysieren wir die Auswirkungen der Entnebelungsergebnisse auf die RSI-Gewässersegmentierung. Zunächst haben wir ein vom U-Net inspiriertes RSI-Wassersegmentierungsnetzwerk für die biomedizinische Bildsegmentierung28 mit 1500 RSIs trainiert und es mit 300 RSIs getestet. Zweitens haben wir zwei Bilder aus dem Testsatz ausgewählt, mit der Photoshop-Software eine mäßige Konzentration an Dunst hinzugefügt und die beiden Bilder mit dem auf „Moderater Nebel“ trainierten -T-Modell getestet. Abschließend vergleichen wir qualitativ die Ergebnisse der Gewässersegmentierung für trübe Eingaben, die Enttrübungsergebnisse von GTMNet-T und Dehazeformer-T sowie trübungsfreie Bilder. Wie in Abb. 12 gezeigt, gibt es nur sehr geringe visuelle Unterschiede zwischen den enttrübten Bildern von GTMNet-T und den trübungsfreien Bildern. Allerdings weisen die enttrübten Bilder von Dehazeformer-T im Vergleich zu trübungsfreien Bildern erhöhte Fehler im Wasserkörpersegmentierungsprozess auf.

Qualitativer Vergleich verschiedener Enttrübungsergebnisse bei der Wasserkörpersegmentierungsaufgabe des RSI. Die Grunddaten werden von einem DJI-Phantom 3 Pro erfasst.

Wir kombinieren die Vorteile von ViT und CNN und schlagen ein neues RSI-Dehazing-Hybridmodell GTMNet vor. Das GTM wird zunächst mithilfe von zwei SFT-Schichten in das Modell eingeführt, um die Fähigkeit des Modells zur Schätzung der Dunstdicke zu verbessern. Anschließend wird das SOS-Boosted-Modul eingeführt, um die lokalen Merkmale des wiederhergestellten Abbilds schrittweise zu verfeinern. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell selbst für kleine, verschwommene RSI-Datensätze einen hervorragenden Entschleierungseffekt aufweist, wodurch der Mangel an Trainingsdaten für aktuelle visuelle Aufgaben auf niedrigem Niveau effektiv ausgeglichen und die Anwendbarkeit des Modells verbessert wird. Im Vergleich zu modernsten Methoden mildert GTMNet bis zu einem gewissen Grad Farbverzerrungen auf dem Dach von Gebäuden mit hoher Helligkeit und in Bereichen mit dichtem Dunst.

Wir haben festgestellt, dass die Wirksamkeit des vorherigen GTM vom Vorhandensein des SOS-verstärkten Moduls abhängt. Daher ist die Strategie der Einbringung externen Vorwissens von entscheidender Bedeutung. In zukünftigen Arbeiten werden wir die Selbst- gewichtete Fusionsstrategie der Hilfsdaten (z. B. Synthetic Aperture Radar-Bild, GTM) und RSI-Merkmale. Darüber hinaus werden wir Strategien zur Kombination traditioneller Methoden und Deep-Learning-basierter Methoden weiter untersuchen und geeignetere Modelle entwerfen, um eine Überanpassung zu vermeiden.

Alle während dieser Studie generierten oder analysierten Daten sind in diesem veröffentlichten Artikel enthalten. Die Version der Photoshop-Software zum Erstellen verschwommener RSIs ist 24.3 und ist unter https://www.adobe.com/products/photoshop.html verfügbar.

McCartney, EJ Optics of the Atmosphere: Scattering by Molecules and Particles (Springer, 1976).

Google Scholar

Nayar, SK & Narasimhan, SG Vision bei schlechtem Wetter. In Proceedings of the Seventh IEEE International Conference on Computer Vision, Bd. 2, 820–827 (IEEE, 1999).

Narasimhan, SG & Nayar, SK Vision und die Atmosphäre. Int. J. Comput. Vis. 48, 233–254 (2002).

Artikel MATH Google Scholar

He, K., Sun, J. & Tang, X. Einzelbild-Schleierentfernung mit vorherigem Dunkelkanal. IEEE Trans. Muster Anal. Mach. Intel. 33, 2341–2353 (2010).

PubMed Google Scholar

Cai, B., Xu, IEEE Trans. Bildprozess. 25, 5187–5198 (2016).

Artikel ADS MathSciNet MATH Google Scholar

Chavez, PS Jr. Eine verbesserte Subtraktionstechnik für dunkle Objekte zur Korrektur der atmosphärischen Streuung multispektraler Daten. Fernerkundung. Umwelt. 24, 459–479 (1988).

Artikel ADS Google Scholar

Huang, B., Zhi, L., Yang, C., Sun, F. & Song, Y. Optische Einzelsatelliten-Enttrübung unter Verwendung von SAR-Bildern basierend auf bedingten generativen gegnerischen Netzwerken. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 1806–1813 (2020).

Mehta, A., Sinha, H., Mandal, M. & Narang, P. Domänenbewusste, unbeaufsichtigte hyperspektrale Rekonstruktion zur Luftbildenttrübung. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 413–422 (2021).

Vaswani, A. et al. Aufmerksamkeit ist alles, was Sie brauchen. Adv. Neuronale Inf. Verfahren. Syst. 30, 1–10 (2017).

Google Scholar

Wang, W. et al. Pyramid Vision Transformer: Ein vielseitiges Rückgrat für dichte Vorhersagen ohne Faltungen. In Proceedings of the IEEE/CVF International Conference on Computer Vision, 568–578 (2021).

Liang, J. et al. Swinir: Bildwiederherstellung mit Swin-Transformator. In Proceedings of the IEEE/CVF International Conference on Computer Vision, 1833–1844 (2021).

Liu, Z. et al. Swin-Transformator: Hierarchischer Vision-Transformator mit verschobenen Fenstern. In Proceedings of the IEEE/CVF International Conference on Computer Vision, 10012–10022 (2021).

Wang, Z. et al. Uformer: Ein allgemeiner U-förmiger Transformator zur Bildwiederherstellung. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 17683–17693 (2022).

Dong, P. & Wang, B. TransRA: Transformator und Restaufmerksamkeitsfusion zur Enttrübung einzelner Fernerkundungsbilder. Mehrdimensional. Syst. Signalprozess. 33, 1119–1138 (2022).

Artikel Google Scholar

Song, Y., He, Z., Qian, H. & Du, X. Vision-Transformatoren für die Enttrübung einzelner Bilder. IEEE Trans. Bildprozess. 32, 1927–1941 (2023).

Artikel ADS Google Scholar

Ronneberger, O., Fischer, P. & Brox, T. U-net: Faltungsnetzwerke für die biomedizinische Bildsegmentierung. In International Conference on Medical Image Computing and Computer-Assisted Intervention, 234–241 (Springer, 2015).

He, K., Sun, J. & Tang, X. Geführte Bildfilterung. In Europäische Konferenz über Computer Vision, 1–14 (Springer, 2010).

Wang, X., Yu, K., Dong, C. & Loy, CC Wiederherstellung realistischer Texturen in Bildsuperauflösung durch tiefe räumliche Merkmalstransformation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 606–615 (2018).

Romano, Y. & Elad, M. Verbesserung von Bildrauschunterdrückungsalgorithmen. SIAM J. Bild. Wissenschaft. 8, 1187–1219 (2015).

Artikel MathSciNet MATH Google Scholar

Dong, H. et al. Mehrskaliges verstärktes Entnebelungsnetzwerk mit dichter Merkmalsfusion. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2157–2167 (2020).

Shi, W. et al. Einzelbild- und Video-Superauflösung in Echtzeit mithilfe eines effizienten Subpixel-Faltungs-Neuronalen Netzwerks. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1874–1883 ​​(2016).

Song, Y., He, Z., Qian, H. & Du, X. Vision Transformers for Single Image Dehazing. http://arxiv.org/abs/2204.03883 (2022).

Li, X., Wang, W., Hu, X. & Yang, J. Selektive Kernel-Netzwerke. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 510–519 (2019).

Loshchilov, I. & Hutter, F. Entkoppelte Regularisierung des Gewichtsverlusts. http://arxiv.org/abs/1711.05101 (2017).

Loshchilov, I. & Hutter, F. Sgdr: Stochastischer Gradientenabstieg mit warmen Neustarts. http://arxiv.org/abs/1608.03983 (2016).

Burkardt, J. Die verkürzte Normalverteilung. Website des Department of Scientific Computing 1, 35 (2014).

Chen, D. et al. Gated-Kontext-Aggregationsnetzwerk zum Entschärfen und Entrainieren von Bildern. Im Jahr 2019 IEEE Winter Conference on Applications of Computer Vision (WACV) 1375–1383 (IEEE, 2019).

Ronneberger, O., Fischer, P. & Brox, T. U-net: Faltungsnetzwerke für die biomedizinische Bildsegmentierung. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2015: 18. Internationale Konferenz, München, Deutschland, 5.–9. Oktober 2015, Tagungsband, Teil III 18 234–241 (Springer, 2015).

Chen, Y., Xia, R., Zou, K. & Yang, K. FFTI: Bildmalalgorithmus über Feature-Fusion und zweistufiges Malen. J. Vis. Komm. Bild darstellen. Rev. 91, 103776 (2023).

Artikel Google Scholar

Chen, Y., Xia, R., Yang, K. & Zou, K. MFFN: Bild-Superauflösung durch Multi-Level-Features-Fusion-Netzwerk. Vis. Berechnen. 1, 1–16 (2023).

Google Scholar

Referenzen herunterladen

Yaping Zhang wurde vom Yunnan Provincial Agricultural Basic Research Joint Special Project (Grant No. 202101BD070001-042) und dem Yunnan Ten-Thousand Talents Program finanziert. Die Autoren geben an, dass keine Interessenkonflikte bestehen.

School of Information Science and Technology, Yunnan Normal University, Kunming, 650500, Yunnan, China

Haiqin Li, Yaping Zhang, Jiatao Liu und Yuanjie Ma

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

HL: Konzeptualisierung, Software, Untersuchung, Visualisierung, Validierung, Schreiben, Überarbeitung. YZ: Konzeptualisierung, Methodik, Schreiben, Überarbeitung, Betreuung, finanzielle Unterstützung. JL: Konzeptualisierung, Schreiben, Überarbeitung. YM: Validierung, Ressourcen.

Korrespondenz mit Yaping Zhang.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Li, H., Zhang, Y., Liu, J. et al. GTMNet: ein Vision-Transformator mit geführter Übertragungskarte für die Enttrübung einzelner Fernerkundungsbilder. Sci Rep 13, 9222 (2023). https://doi.org/10.1038/s41598-023-36149-6

Zitat herunterladen

Eingegangen: 14. Februar 2023

Angenommen: 30. Mai 2023

Veröffentlicht: 07. Juni 2023

DOI: https://doi.org/10.1038/s41598-023-36149-6

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.