Hand gesture recognition using mm-wave RADAR technology:
Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Abschlussarbeit Elektronisch E-Book |
Sprache: | English |
Veröffentlicht: |
Berlin
[2024?]
|
Schlagworte: | |
Online-Zugang: | kostenfrei |
Zusammenfassung: | Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. |
Beschreibung: | Tag der mündlichen Prüfung: 20. Juni 2024 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2024 |
Beschreibung: | 1 Online-Ressource (xxv, 114 Seiten) Illustrationen, Diagramme |
Internformat
MARC
LEADER | 00000nmm a2200000 c 4500 | ||
---|---|---|---|
001 | BV049795323 | ||
003 | DE-604 | ||
005 | 20241025 | ||
006 | a m||| 00||| | ||
007 | cr|uuu---uuuuu | ||
008 | 240724s2024 |||| o||u| ||||||eng d | ||
024 | 7 | |a 10.18452/29031 |2 doi | |
024 | 7 | |a urn:nbn:de:kobv:11-110-18452/29764-3 |2 urn | |
035 | |a (OCoLC)1450736144 | ||
035 | |a (DE-599)BVBBV049795323 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a eng | |
049 | |a DE-11 | ||
084 | |a ST 308 |0 (DE-625)143655: |2 rvk | ||
084 | |a ZQ 3124 |0 (DE-625)158042: |2 rvk | ||
084 | |8 2\p |a 621.3 |2 23sdnb | ||
084 | |8 1\p |a 621.3848 |2 23ksdnb | ||
100 | 1 | |a Zhao, Yanhua |e Verfasser |0 (DE-588)1336743069 |4 aut | |
245 | 1 | 0 | |a Hand gesture recognition using mm-wave RADAR technology |c von M.Sc. Yanhua Zhao |
264 | 1 | |a Berlin |c [2024?] | |
300 | |a 1 Online-Ressource (xxv, 114 Seiten) |b Illustrationen, Diagramme | ||
336 | |b txt |2 rdacontent | ||
337 | |b c |2 rdamedia | ||
338 | |b cr |2 rdacarrier | ||
500 | |a Tag der mündlichen Prüfung: 20. Juni 2024 | ||
500 | |a Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. | ||
500 | |a Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2024 | ||
502 | |b Dissertation |c Humboldt-Universität zu Berlin |d 2024 | ||
520 | 8 | |a Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. | |
520 | 8 | |a Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. | |
650 | 0 | 7 | |8 3\p |a Bilderkennung |0 (DE-588)4264283-8 |2 gnd |
650 | 0 | 7 | |8 4\p |a Radarsensor |0 (DE-588)4809985-5 |2 gnd |
650 | 0 | 7 | |8 5\p |a Gestik |0 (DE-588)4157167-8 |2 gnd |
650 | 0 | 7 | |8 6\p |a Merkmalsextraktion |0 (DE-588)4314440-8 |2 gnd |
650 | 0 | 7 | |8 7\p |a Mensch-Maschine-Kommunikation |0 (DE-588)4125909-9 |2 gnd |
650 | 0 | 7 | |8 8\p |a Radar |0 (DE-588)4176765-2 |2 gnd |
653 | |a FMCW | ||
653 | |a RADAR | ||
653 | |a Gestenerkennung | ||
653 | |a Synthetisch | ||
653 | |a GAN | ||
653 | |a Maschinelles Lernen | ||
653 | |a Gesture recognition | ||
653 | |a Synthetic | ||
653 | |a Machine learning | ||
655 | 7 | |0 (DE-588)4113937-9 |a Hochschulschrift |2 gnd-content | |
776 | 0 | 8 | |i Erscheint auch als |a Zhao, Yanhua |t Hand gesture recognition using mm-wave RADAR technology |n Druck-Ausgabe |w (DE-604)BV049852351 |
856 | 4 | 0 | |u http://edoc.hu-berlin.de/18452/29764 |x Verlag |z kostenfrei |3 Volltext |
883 | 0 | |8 1\p |a emakn |c 0,97799 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emakn | |
883 | 0 | |8 2\p |a emasg |c 0,47051 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emasg | |
883 | 0 | |8 3\p |a emagnd |c 0,27812 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 4\p |a emagnd |c 0,27491 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 5\p |a emagnd |c 0,26594 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 6\p |a emagnd |c 0,16878 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 7\p |a emagnd |c 0,11753 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 8\p |a emagnd |c 0,06977 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
912 | |a ebook | ||
943 | 1 | |a oai:aleph.bib-bvb.de:BVB01-035136033 |
Datensatz im Suchindex
_version_ | 1813879681870462976 |
---|---|
adam_text | |
any_adam_object | |
author | Zhao, Yanhua |
author_GND | (DE-588)1336743069 |
author_facet | Zhao, Yanhua |
author_role | aut |
author_sort | Zhao, Yanhua |
author_variant | y z yz |
building | Verbundindex |
bvnumber | BV049795323 |
classification_rvk | ST 308 ZQ 3124 |
collection | ebook |
ctrlnum | (OCoLC)1450736144 (DE-599)BVBBV049795323 |
discipline | Informatik Mess-/Steuerungs-/Regelungs-/Automatisierungstechnik / Mechatronik |
format | Thesis Electronic eBook |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>00000nmm a2200000 c 4500</leader><controlfield tag="001">BV049795323</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20241025</controlfield><controlfield tag="006">a m||| 00|||</controlfield><controlfield tag="007">cr|uuu---uuuuu</controlfield><controlfield tag="008">240724s2024 |||| o||u| ||||||eng d</controlfield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">10.18452/29031</subfield><subfield code="2">doi</subfield></datafield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">urn:nbn:de:kobv:11-110-18452/29764-3</subfield><subfield code="2">urn</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1450736144</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)BVBBV049795323</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">eng</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-11</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 308</subfield><subfield code="0">(DE-625)143655:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ZQ 3124</subfield><subfield code="0">(DE-625)158042:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">2\p</subfield><subfield code="a">621.3</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">1\p</subfield><subfield code="a">621.3848</subfield><subfield code="2">23ksdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Zhao, Yanhua</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1336743069</subfield><subfield code="4">aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Hand gesture recognition using mm-wave RADAR technology</subfield><subfield code="c">von M.Sc. Yanhua Zhao</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Berlin</subfield><subfield code="c">[2024?]</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 Online-Ressource (xxv, 114 Seiten)</subfield><subfield code="b">Illustrationen, Diagramme</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Tag der mündlichen Prüfung: 20. Juni 2024</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache.</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2024</subfield></datafield><datafield tag="502" ind1=" " ind2=" "><subfield code="b">Dissertation</subfield><subfield code="c">Humboldt-Universität zu Berlin</subfield><subfield code="d">2024</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt.</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications.</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">3\p</subfield><subfield code="a">Bilderkennung</subfield><subfield code="0">(DE-588)4264283-8</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">4\p</subfield><subfield code="a">Radarsensor</subfield><subfield code="0">(DE-588)4809985-5</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">5\p</subfield><subfield code="a">Gestik</subfield><subfield code="0">(DE-588)4157167-8</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">6\p</subfield><subfield code="a">Merkmalsextraktion</subfield><subfield code="0">(DE-588)4314440-8</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">7\p</subfield><subfield code="a">Mensch-Maschine-Kommunikation</subfield><subfield code="0">(DE-588)4125909-9</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">8\p</subfield><subfield code="a">Radar</subfield><subfield code="0">(DE-588)4176765-2</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">FMCW</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">RADAR</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Gestenerkennung</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Synthetisch</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">GAN</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Maschinelles Lernen</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Gesture recognition</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Synthetic</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Machine learning</subfield></datafield><datafield tag="655" ind1=" " ind2="7"><subfield code="0">(DE-588)4113937-9</subfield><subfield code="a">Hochschulschrift</subfield><subfield code="2">gnd-content</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="a">Zhao, Yanhua</subfield><subfield code="t">Hand gesture recognition using mm-wave RADAR technology</subfield><subfield code="n">Druck-Ausgabe</subfield><subfield code="w">(DE-604)BV049852351</subfield></datafield><datafield tag="856" ind1="4" ind2="0"><subfield code="u">http://edoc.hu-berlin.de/18452/29764</subfield><subfield code="x">Verlag</subfield><subfield code="z">kostenfrei</subfield><subfield code="3">Volltext</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">emakn</subfield><subfield code="c">0,97799</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emakn</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">2\p</subfield><subfield code="a">emasg</subfield><subfield code="c">0,47051</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emasg</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">3\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,27812</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">4\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,27491</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">5\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,26594</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">6\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,16878</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">7\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,11753</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">8\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,06977</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">ebook</subfield></datafield><datafield tag="943" ind1="1" ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-035136033</subfield></datafield></record></collection> |
genre | (DE-588)4113937-9 Hochschulschrift gnd-content |
genre_facet | Hochschulschrift |
id | DE-604.BV049795323 |
illustrated | Not Illustrated |
indexdate | 2024-10-25T10:01:05Z |
institution | BVB |
language | English |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-035136033 |
oclc_num | 1450736144 |
open_access_boolean | 1 |
owner | DE-11 |
owner_facet | DE-11 |
physical | 1 Online-Ressource (xxv, 114 Seiten) Illustrationen, Diagramme |
psigel | ebook |
publishDate | 2024 |
publishDateSearch | 2024 |
publishDateSort | 2024 |
record_format | marc |
spelling | Zhao, Yanhua Verfasser (DE-588)1336743069 aut Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao Berlin [2024?] 1 Online-Ressource (xxv, 114 Seiten) Illustrationen, Diagramme txt rdacontent c rdamedia cr rdacarrier Tag der mündlichen Prüfung: 20. Juni 2024 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2024 Dissertation Humboldt-Universität zu Berlin 2024 Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. 3\p Bilderkennung (DE-588)4264283-8 gnd 4\p Radarsensor (DE-588)4809985-5 gnd 5\p Gestik (DE-588)4157167-8 gnd 6\p Merkmalsextraktion (DE-588)4314440-8 gnd 7\p Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd 8\p Radar (DE-588)4176765-2 gnd FMCW RADAR Gestenerkennung Synthetisch GAN Maschinelles Lernen Gesture recognition Synthetic Machine learning (DE-588)4113937-9 Hochschulschrift gnd-content Erscheint auch als Zhao, Yanhua Hand gesture recognition using mm-wave RADAR technology Druck-Ausgabe (DE-604)BV049852351 http://edoc.hu-berlin.de/18452/29764 Verlag kostenfrei Volltext 1\p emakn 0,97799 20240731 DE-101 https://d-nb.info/provenance/plan#emakn 2\p emasg 0,47051 20240731 DE-101 https://d-nb.info/provenance/plan#emasg 3\p emagnd 0,27812 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd 4\p emagnd 0,27491 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd 5\p emagnd 0,26594 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd 6\p emagnd 0,16878 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd 7\p emagnd 0,11753 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd 8\p emagnd 0,06977 20240731 DE-101 https://d-nb.info/provenance/plan#emagnd |
spellingShingle | Zhao, Yanhua Hand gesture recognition using mm-wave RADAR technology 3\p Bilderkennung (DE-588)4264283-8 gnd 4\p Radarsensor (DE-588)4809985-5 gnd 5\p Gestik (DE-588)4157167-8 gnd 6\p Merkmalsextraktion (DE-588)4314440-8 gnd 7\p Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd 8\p Radar (DE-588)4176765-2 gnd |
subject_GND | (DE-588)4264283-8 (DE-588)4809985-5 (DE-588)4157167-8 (DE-588)4314440-8 (DE-588)4125909-9 (DE-588)4176765-2 (DE-588)4113937-9 |
title | Hand gesture recognition using mm-wave RADAR technology |
title_auth | Hand gesture recognition using mm-wave RADAR technology |
title_exact_search | Hand gesture recognition using mm-wave RADAR technology |
title_full | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_fullStr | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_full_unstemmed | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_short | Hand gesture recognition using mm-wave RADAR technology |
title_sort | hand gesture recognition using mm wave radar technology |
topic | 3\p Bilderkennung (DE-588)4264283-8 gnd 4\p Radarsensor (DE-588)4809985-5 gnd 5\p Gestik (DE-588)4157167-8 gnd 6\p Merkmalsextraktion (DE-588)4314440-8 gnd 7\p Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd 8\p Radar (DE-588)4176765-2 gnd |
topic_facet | Bilderkennung Radarsensor Gestik Merkmalsextraktion Mensch-Maschine-Kommunikation Radar Hochschulschrift |
url | http://edoc.hu-berlin.de/18452/29764 |
work_keys_str_mv | AT zhaoyanhua handgesturerecognitionusingmmwaveradartechnology |