Hand gesture recognition using mm-wave RADAR technology:
Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Abschlussarbeit Buch |
Sprache: | English |
Veröffentlicht: |
Berlin
[2024?]
|
Schlagworte: | |
Online-Zugang: | kostenfrei |
Zusammenfassung: | Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. |
Beschreibung: | Tag der mündlichen Prüfung: 20. Juni 2024 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. |
Beschreibung: | xxv, 114 Seiten Illustrationen, Diagramme (farbig) |
Internformat
MARC
LEADER | 00000nam a2200000 c 4500 | ||
---|---|---|---|
001 | BV049852351 | ||
003 | DE-604 | ||
005 | 20241025 | ||
007 | t | ||
008 | 240905s2024 a||| m||| 00||| eng d | ||
035 | |a (OCoLC)1456126267 | ||
035 | |a (DE-599)BVBBV049852351 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a eng | |
049 | |a DE-11 | ||
084 | |a ST 308 |0 (DE-625)143655: |2 rvk | ||
084 | |a ZQ 3124 |0 (DE-625)158042: |2 rvk | ||
084 | |8 2\p |a 621.3 |2 23sdnb | ||
084 | |8 1\p |a 621.3848 |2 23ksdnb | ||
100 | 1 | |a Zhao, Yanhua |e Verfasser |0 (DE-588)1336743069 |4 aut | |
245 | 1 | 0 | |a Hand gesture recognition using mm-wave RADAR technology |c von M.Sc. Yanhua Zhao |
264 | 1 | |a Berlin |c [2024?] | |
300 | |a xxv, 114 Seiten |b Illustrationen, Diagramme (farbig) | ||
336 | |b txt |2 rdacontent | ||
337 | |b n |2 rdamedia | ||
338 | |b nc |2 rdacarrier | ||
500 | |a Tag der mündlichen Prüfung: 20. Juni 2024 | ||
500 | |a Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. | ||
502 | |b Dissertation |c Humboldt-Universität zu Berlin |d 2024 | ||
520 | 8 | |a Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. | |
520 | 8 | |a Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. | |
650 | 0 | 7 | |a Merkmalsextraktion |0 (DE-588)4314440-8 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Bilderkennung |0 (DE-588)4264283-8 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Radarsensor |0 (DE-588)4809985-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Radar |0 (DE-588)4176765-2 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Gestik |0 (DE-588)4157167-8 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Mensch-Maschine-Kommunikation |0 (DE-588)4125909-9 |2 gnd |9 rswk-swf |
655 | 7 | |0 (DE-588)4113937-9 |a Hochschulschrift |2 gnd-content | |
689 | 0 | 0 | |a Bilderkennung |0 (DE-588)4264283-8 |D s |
689 | 0 | |5 DE-604 | |
689 | 1 | 0 | |a Radarsensor |0 (DE-588)4809985-5 |D s |
689 | 1 | |5 DE-604 | |
689 | 2 | 0 | |a Gestik |0 (DE-588)4157167-8 |D s |
689 | 2 | |5 DE-604 | |
689 | 3 | 0 | |a Merkmalsextraktion |0 (DE-588)4314440-8 |D s |
689 | 3 | |5 DE-604 | |
689 | 4 | 0 | |a Mensch-Maschine-Kommunikation |0 (DE-588)4125909-9 |D s |
689 | 4 | |5 DE-604 | |
689 | 5 | 0 | |a Radar |0 (DE-588)4176765-2 |D s |
689 | 5 | |5 DE-604 | |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe |a Zhao, Yanhua |t Hand gesture recognition using mm-wave RADAR technology |o 10.18452/29031 |o urn:nbn:de:kobv:11-110-18452/29764-3 |w (DE-604)BV049795323 |
856 | 4 | 1 | |u http://edoc.hu-berlin.de/18452/29764 |x Verlag |z kostenfrei |3 Volltext |
883 | 0 | |8 1\p |a emakn |c 0,97799 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emakn | |
883 | 0 | |8 2\p |a emasg |c 0,47051 |d 20240731 |q DE-101 |u https://d-nb.info/provenance/plan#emasg | |
912 | |a ebook | ||
943 | 1 | |a oai:aleph.bib-bvb.de:BVB01-035192173 |
Datensatz im Suchindex
_version_ | 1813879680354222080 |
---|---|
adam_text | |
any_adam_object | |
author | Zhao, Yanhua |
author_GND | (DE-588)1336743069 |
author_facet | Zhao, Yanhua |
author_role | aut |
author_sort | Zhao, Yanhua |
author_variant | y z yz |
building | Verbundindex |
bvnumber | BV049852351 |
classification_rvk | ST 308 ZQ 3124 |
collection | ebook |
ctrlnum | (OCoLC)1456126267 (DE-599)BVBBV049852351 |
discipline | Informatik Mess-/Steuerungs-/Regelungs-/Automatisierungstechnik / Mechatronik |
format | Thesis Book |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>00000nam a2200000 c 4500</leader><controlfield tag="001">BV049852351</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20241025</controlfield><controlfield tag="007">t</controlfield><controlfield tag="008">240905s2024 a||| m||| 00||| eng d</controlfield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1456126267</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)BVBBV049852351</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">eng</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-11</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 308</subfield><subfield code="0">(DE-625)143655:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ZQ 3124</subfield><subfield code="0">(DE-625)158042:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">2\p</subfield><subfield code="a">621.3</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">1\p</subfield><subfield code="a">621.3848</subfield><subfield code="2">23ksdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Zhao, Yanhua</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1336743069</subfield><subfield code="4">aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Hand gesture recognition using mm-wave RADAR technology</subfield><subfield code="c">von M.Sc. Yanhua Zhao</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Berlin</subfield><subfield code="c">[2024?]</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">xxv, 114 Seiten</subfield><subfield code="b">Illustrationen, Diagramme (farbig)</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Tag der mündlichen Prüfung: 20. Juni 2024</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache.</subfield></datafield><datafield tag="502" ind1=" " ind2=" "><subfield code="b">Dissertation</subfield><subfield code="c">Humboldt-Universität zu Berlin</subfield><subfield code="d">2024</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt.</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications.</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Merkmalsextraktion</subfield><subfield code="0">(DE-588)4314440-8</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Bilderkennung</subfield><subfield code="0">(DE-588)4264283-8</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Radarsensor</subfield><subfield code="0">(DE-588)4809985-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Radar</subfield><subfield code="0">(DE-588)4176765-2</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Gestik</subfield><subfield code="0">(DE-588)4157167-8</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Mensch-Maschine-Kommunikation</subfield><subfield code="0">(DE-588)4125909-9</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="655" ind1=" " ind2="7"><subfield code="0">(DE-588)4113937-9</subfield><subfield code="a">Hochschulschrift</subfield><subfield code="2">gnd-content</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Bilderkennung</subfield><subfield code="0">(DE-588)4264283-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="1" ind2="0"><subfield code="a">Radarsensor</subfield><subfield code="0">(DE-588)4809985-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="2" ind2="0"><subfield code="a">Gestik</subfield><subfield code="0">(DE-588)4157167-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="2" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="3" ind2="0"><subfield code="a">Merkmalsextraktion</subfield><subfield code="0">(DE-588)4314440-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="3" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="4" ind2="0"><subfield code="a">Mensch-Maschine-Kommunikation</subfield><subfield code="0">(DE-588)4125909-9</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="4" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="5" ind2="0"><subfield code="a">Radar</subfield><subfield code="0">(DE-588)4176765-2</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="5" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe</subfield><subfield code="a">Zhao, Yanhua</subfield><subfield code="t">Hand gesture recognition using mm-wave RADAR technology</subfield><subfield code="o">10.18452/29031</subfield><subfield code="o">urn:nbn:de:kobv:11-110-18452/29764-3</subfield><subfield code="w">(DE-604)BV049795323</subfield></datafield><datafield tag="856" ind1="4" ind2="1"><subfield code="u">http://edoc.hu-berlin.de/18452/29764</subfield><subfield code="x">Verlag</subfield><subfield code="z">kostenfrei</subfield><subfield code="3">Volltext</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">emakn</subfield><subfield code="c">0,97799</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emakn</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">2\p</subfield><subfield code="a">emasg</subfield><subfield code="c">0,47051</subfield><subfield code="d">20240731</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emasg</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">ebook</subfield></datafield><datafield tag="943" ind1="1" ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-035192173</subfield></datafield></record></collection> |
genre | (DE-588)4113937-9 Hochschulschrift gnd-content |
genre_facet | Hochschulschrift |
id | DE-604.BV049852351 |
illustrated | Illustrated |
indexdate | 2024-10-25T10:01:04Z |
institution | BVB |
language | English |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-035192173 |
oclc_num | 1456126267 |
open_access_boolean | 1 |
owner | DE-11 |
owner_facet | DE-11 |
physical | xxv, 114 Seiten Illustrationen, Diagramme (farbig) |
psigel | ebook |
publishDate | 2024 |
publishDateSearch | 2024 |
publishDateSort | 2024 |
record_format | marc |
spelling | Zhao, Yanhua Verfasser (DE-588)1336743069 aut Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao Berlin [2024?] xxv, 114 Seiten Illustrationen, Diagramme (farbig) txt rdacontent n rdamedia nc rdacarrier Tag der mündlichen Prüfung: 20. Juni 2024 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. Dissertation Humboldt-Universität zu Berlin 2024 Die Interaktion zwischen Mensch und Computer ist zu einem Teil unseres täglichen Lebens geworden. Radarsensoren sind aufgrund ihrer geringen Größe, ihres niedrigen Stromverbrauchs und ihrer Erschwinglichkeit sehr vielversprechend. Im Vergleich zu anderen Sensoren wie Kameras und LIDAR kann RADAR in einer Vielzahl von Umgebungen eingesetzt werden, und wird dabei nicht durch Licht beeinträchtigt. Vor allem aber besteht keine Gefahr, dass die Privatsphäre des Benutzers verletzt wird. Unter den vielen Radararten wird das FMCW-Radar für die Gestenerkennung genutzt, da es mehrere Ziele beobachten, Reichweite, Geschwindigkeit und Winkel messen kann und die Hardware und Signalverarbeitung relativ einfach sind. Die radargestützte Gestenerkennung kann in einer Vielzahl von Bereichen eingesetzt werden. So kann z. B. bei Gesundheits- und Sicherheitsaspekten durch den Einsatz radargestützter Gestenerkennungssysteme Körperkontakt vermieden und die Möglichkeit einer Kontamination verringert werden. Auch in der Automobilbranche kann die berührungslose Steuerung bestimmter Funktionen, wie z. B. das Einschalten der Klimaanlage, das Benutzererlebnis verbessern und zu einem sichereren Fahrverhalten beitragen. Bei der Implementierung eines auf künstlicher Intelligenz basierenden Gestenerkennungssystems unter Verwendung von RADAR gibt es noch viele Herausforderungen, wie z. B. die Interpretation von Daten, das Sammeln von Trainingsdaten, die Optimierung der Berechnungskomplexität und die Verbesserung der Systemrobustheit. Diese Arbeit konzentriert sich auf die Bewältigung dieser Herausforderungen. Diese Arbeit befasst sich mit wichtigen Aspekten von Gestenerkennungssystemen. Von der Radarsignalverarbeitung, über maschinelle Lernmodelle, Datenerweiterung bis hin zu Multisensorsystemen werden die Herausforderungen der realen Welt angegangen. Damit wird der Grundstein für den umfassenden Einsatz von Gestenerkennungssystemen in der Praxis gelegt. Englische Version: Human-computer interaction has become part of our daily lives. RADAR stands out as a very promising sensor, with its small size, low power consumption, and affordability. Compared to other sensors, such as cameras and LIDAR, RADAR can work in a variety of environments, and it is not affected by light. Most importantly, there is no risk of infringing on user's privacy. Among the many types of RADAR, FMCW RADAR is utilised for gesture recognition due to its ability to observe multiple targets and to measure range, velocity and angle, as well as its relatively simple hardware and signal processing. RADAR-based gesture recognition can be applied in a variety of domains. For example, for health and safety considerations, the use of RADAR-based gesture recognition systems can avoid physical contact and reduce the possibility of contamination. Similarly, in automotive applications, contactless control of certain functions, such as turning on the air conditioning, can improve the user experience and contribute to safer driving. There are still many challenges in implementing an artificial intelligence-based gesture recognition system using RADAR, such as interpreting data, collecting training data, optimising computational complexity and improving system robustness. This work will focus on addressing these challenges. This thesis addresses key aspects of gesture recognition systems. From RADAR signal processing, machine learning models, data augmentation to multi-sensor systems, the challenges posed by real-world scenarios are tackled. This lays the foundation for a comprehensive deployment of gesture recognition systems for many practical applications. Merkmalsextraktion (DE-588)4314440-8 gnd rswk-swf Bilderkennung (DE-588)4264283-8 gnd rswk-swf Radarsensor (DE-588)4809985-5 gnd rswk-swf Radar (DE-588)4176765-2 gnd rswk-swf Gestik (DE-588)4157167-8 gnd rswk-swf Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd rswk-swf (DE-588)4113937-9 Hochschulschrift gnd-content Bilderkennung (DE-588)4264283-8 s DE-604 Radarsensor (DE-588)4809985-5 s Gestik (DE-588)4157167-8 s Merkmalsextraktion (DE-588)4314440-8 s Mensch-Maschine-Kommunikation (DE-588)4125909-9 s Radar (DE-588)4176765-2 s Erscheint auch als Online-Ausgabe Zhao, Yanhua Hand gesture recognition using mm-wave RADAR technology 10.18452/29031 urn:nbn:de:kobv:11-110-18452/29764-3 (DE-604)BV049795323 http://edoc.hu-berlin.de/18452/29764 Verlag kostenfrei Volltext 1\p emakn 0,97799 20240731 DE-101 https://d-nb.info/provenance/plan#emakn 2\p emasg 0,47051 20240731 DE-101 https://d-nb.info/provenance/plan#emasg |
spellingShingle | Zhao, Yanhua Hand gesture recognition using mm-wave RADAR technology Merkmalsextraktion (DE-588)4314440-8 gnd Bilderkennung (DE-588)4264283-8 gnd Radarsensor (DE-588)4809985-5 gnd Radar (DE-588)4176765-2 gnd Gestik (DE-588)4157167-8 gnd Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd |
subject_GND | (DE-588)4314440-8 (DE-588)4264283-8 (DE-588)4809985-5 (DE-588)4176765-2 (DE-588)4157167-8 (DE-588)4125909-9 (DE-588)4113937-9 |
title | Hand gesture recognition using mm-wave RADAR technology |
title_auth | Hand gesture recognition using mm-wave RADAR technology |
title_exact_search | Hand gesture recognition using mm-wave RADAR technology |
title_full | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_fullStr | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_full_unstemmed | Hand gesture recognition using mm-wave RADAR technology von M.Sc. Yanhua Zhao |
title_short | Hand gesture recognition using mm-wave RADAR technology |
title_sort | hand gesture recognition using mm wave radar technology |
topic | Merkmalsextraktion (DE-588)4314440-8 gnd Bilderkennung (DE-588)4264283-8 gnd Radarsensor (DE-588)4809985-5 gnd Radar (DE-588)4176765-2 gnd Gestik (DE-588)4157167-8 gnd Mensch-Maschine-Kommunikation (DE-588)4125909-9 gnd |
topic_facet | Merkmalsextraktion Bilderkennung Radarsensor Radar Gestik Mensch-Maschine-Kommunikation Hochschulschrift |
url | http://edoc.hu-berlin.de/18452/29764 |
work_keys_str_mv | AT zhaoyanhua handgesturerecognitionusingmmwaveradartechnology |