Mensch-Roboter-Kollaborationsanwendungen brauchen Perzeptionsmodelle, die schnell aktualisiert werden und sichere Bewegungen in dynamischen Szenen ermöglichen. Dazu haben wir ein Interactive Distance Field Mapping and Planning (IDMP) Framework entworfen, das bewegte Objekte sowie die Kollisionsvermeidung in einer effizienten Repräsentation vereint. Wir definieren "Interactive Mapping and Planning" als den Prozess des Erstellens und Aktualisierens der Darstellung der Szene in Echtzeit, während gleichzeitig die Aktionen des Roboters auf der Grundlage dieser Darstellung geplant und angepasst werden. Anhand von Tiefensensordaten erstellt unser System ein kontinuierliches Feld, das die Abfrage der Entfernung und des Richtungswinkels zum nächstgelegenen Hindernis an jeder beliebigen Position im 3D-Raum ermöglicht. Der Schlüsselaspekt dieser Arbeit ist ein effizientes Gaußsches Prozessfeld, das inkrementelle Aktualisierungen durchführt und dynamische Objekte mit einer einfachen und eleganten Formulierung auf der Grundlage eines temporären latenten Modells implizit behandelt. IDMP in der Lage, Punktwolkendaten von einzelnen und mehreren Sensoren zu fusionieren, den freien Raum mit beliebiger räumlicher Auflösung abzufragen und mit sich bewegenden Objekten ohne Semantik umzugehen. In Bezug auf die Planung ermöglicht IDMP eine nahtlose Integration mit Gradienten-basierten Bewegungsplanern, was eine schnelle Neuplanung für eine kollisionsfreie Navigation ermöglicht. Schließlich ist es mit IDMP auch möglich, Greifposen von unbekannten Objekten anhand der "Krümmung" zu bestimmen.