W odkurzaczu, samochodzie i marsjańskim łaziku – technologia SLAM

share
Dzięki zmysłom poruszamy się bezpiecznie i precyzyjnie, nawet w miejscach, które odwiedzamy po raz pierwszy w życiu. Rozwój autonomicznych robotów i pojazdów zakłada, że one również będą w stanie poradzić sobie w podobnych sytuacjach. Umożliwia to upowszechniająca się technologia SLAM, którą znajdziemy wszędzie – od domowego odkurzacza, przez autonomiczny samochód, po marsjańskiego łazika.

Czego przede wszystkim potrzebuje autonomiczny robot lub pojazd? Musi umieć obserwować swoje otoczenie i potrafić dynamicznie reagować na zmieniającą się wokół niego sytuację, by unikać niebezpiecznych zdarzeń i wypadków. Zastosowania w tym kontekście znajduje właśnie wspomniana na wstępie technologia SLAM (Simultaneous Localization and Mapping), dzięki której samodzielnie poruszająca się maszyna może definiować swoje położenie i tworzyć oraz aktualizować mapę otoczenia, po którym się porusza. Wykorzystuje do tego dane pozyskane z sensorów. W zależności od tego, jakiego rodzaju czujniki posiada i w jakiej formie „obserwuje” rzeczywistość, mówimy o jednym z kilku rodzajów technologii SLAM.

Visual SLAM, LiDAR SLAM i Accoustic SLAM

Autonomiczna maszyna funkcjonuje w podobny sposób jak człowiek, gdy mowa o poruszaniu się po nieznanym obszarze. My korzystamy z naszych zmysłów, by określać swoje położenie, wykrywać przeszkody i zagrożenia oraz definiować najlepszą drogę do celu. W przypadku robotów i pojazdów zadanie to wykonują różnego rodzaju sensory, które dostarczają potrzebnych danych do przetworzenia. Sposób obserwacji i zbierania informacji wpływa na różnice definiujące rodzaje technologii SLAM.

Visual SLAM, jak sama nazwa wskazuje, bazuje na odczytach wizualnych, a więc obserwacjach dokonanych za pomocą kamer oraz czujników reagujących choćby na kolor i światło. VSLAM oferuje spore możliwości w zakresie implementacji, ze względu na dostępne obecnie rodzaje kamer. Jest przy tym rozwiązaniem stosunkowo ekonomicznym i przystępnym finansowo we wdrożeniu, co wpływa na jego popularność. W zależności od potrzeb i wymagań, w danej maszynie mogą zostać zastosowane kamery typu rybie oko, panoramiczne, RGBD (Red Green Blue Depth) czy TOF (Time-of-Flight), które mierzą czas w jakim światło wraca do czujnika po odbiciu się od danego obiektu. 

Odmianą SLAM, która zapewnia wysoki poziom precyzji, jest ta bazująca na technologii LiDAR (Light Detection and Ranging), w której obserwacje dokonywane są na bazie odczytów rozproszonego światła, wyemitowanego wcześniej przez pojazd w postaci impulsów. Sensor laserowy  zapewnia dużą dokładność i niezależność od panujących warunków oświetlenia, co jest szczególnie ważne w sytuacjach, w których trudno przewidzieć okoliczności, w jakich przyjdzie funkcjonować autonomicznemu robotowi. W tym przypadku również nie możemy jednak mówić o doskonałości rozwiązania – SLAM oparty o LiDAR również nie jest bezbłędny, a problemy sprawiają mu choćby obiekty o nieregularnym kształcie. 

Łatwo możemy wyobrazić sobie miejsca, w których czerpanie informacji z obserwacji wizualnych jest niemożliwe lub poważnie utrudnione. Maszyny poruszające się w takich warunkach potrzebują innego źródła danych. Może nim być dźwięk, co pokazuje opracowywany przez inżynierów Accoustic SLAM, w którym tworzone na bieżąco wirtualne plany przestrzenne bazują na sygnałach zbieranych przez mikrofony. Atutem tego rozwiązania jest fakt, że w porównaniu do analiz wizualnych, wymaga mniejszych nakładów mocy obliczeniowej do przetworzenia danych, a tym samym stanowi optymalne wyjście w przypadku układów, których konstruktorzy nie chcą zbytnio obciążać. Także jednak i ta metoda nie jest jeszcze bezbłędna. Projektanci stawiają czoła m.in. problemowi echa, które może wprowadzać maszyny w błąd.

SLAM w praktyce

Wiele branż szybko dostrzegło potencjał technologii. To nieuniknione, wszak coraz częściej mówimy o zatrudnianiu do konkretnych zadań samodzielnych robotów i upowszechnianiu autonomicznych pojazdów. Niezależnie od rozmiaru maszyny, czy to dron, czy samochód, SLAM stanowi równie praktyczne rozwiązanie. Jednocześnie jest odpowiedzią na potrzeby sektorów, dla których sprawdzony od lat model poruszania się maszyn, choćby na bazie danych GPS, przestał być wystarczający. Gdzie więc możemy już dzisiaj spotkać się z przykładami zastosowania SLAM? 

Skalę użycia technologii najlepiej zobrazujemy, wspominając, że obecna jest zarówno w jeżdżących po wielu domach autonomicznych odkurzaczach, jak i w łazikach kosmicznych mających realizować misje o kolosalnym znaczeniu dla całej ludzkości. W przypadku jednego z popularnych modeli odkurzaczy, jego optyczne sensory zbierają w każdej sekundzie informacje z ponad 230 000 punktów, dzięki czemu jest on w stanie określić swoje położenie, a także wyznaczyć miejsca, w których już sprzątał i w które jeszcze powinien pojechać.  

SLAM pojawia się tam, gdzie mowa o samodzielnych wytworach mechanicznych. Możemy o niej mówić w kontekście samochodów autonomicznych, co pokazuje przykład rozwijającego się projektu Google Waymo. Wymienia się ją również w kontekście smart robotów, zarówno tych projektowanych z myślą o zadaniach przemysłowych, jak i dla użytkowników indywidualnych. W tym drugim przypadku SLAM ma pozwolić im nie tylko samodzielnie się poruszać, ale również bez pomocy odnaleźć i dotrzeć do użytkownika. Jak szerokie spektrum możliwości to otwiera pokazuje przykład prototypu CanguRo opracowanego przez Future Robotics Technology Center Instytutu Technologii Chiba. Szczególnie intrygująco zapowiada się jednak ewolucja, do której dojdzie w przemyśle.

Dzięki SLAM możemy być już wkrótce świadkami zmiany warty w fabrykach czy magazynach, w których automatyczne roboty (AGV – Automated Guided Vehicle) zastąpią ich doskonalsi, autonomiczni następcy (AMR – Autonomous Mobile Robots). Zaawansowane algorytmy wykorzystywane w tego rodzaju maszynach pozwolą zwiększyć zakres ich zadań, a jednocześnie zadbać o bezpieczeństwo w danym środowisku pracy. Wykorzystując technologiczne możliwości, mechaniczni pracownicy będą w stanie unikać kolizji z ludźmi i innymi robotami oraz reagować na zachodzące w ich otoczeniu zmiany. To z kolei może przełożyć się na większą efektywność, nie tylko w skali każdego robota, ale również całego przedsiębiorstwa. Na bazie obserwacji dokonanych przez maszyny i przekazywanych do systemu, organizacja będzie w stanie optymalizować procesy i usprawniać np. współpracę maszyn i ludzi przy konkretnych zadaniach. Takie perspektywy przekładają się na wzrost zainteresowania AMR, których liczba ma przekroczyć 15 milionów w 2030 roku.  

Samodzielne roboty 

SLAM sprawi, że roboty zyskają wzrok i słuch oraz będą w stanie ze zbieranych danych zrobić praktyczny użytek, podejmując odpowiednie decyzje w czasie rzeczywistym. Co za tym idzie, będą mogły swobodniej poruszać się w przestrzeni, realizując jeszcze większy zakres powierzanych im zadań. Na ile będą samodzielne, to pokaże czas.


Z pewnością jednak czeka nas znacząca ewolucja w pewnych sektorach, w tym w przemyśle i logistyce, co najmniej na miarę tej z połowy ubiegłego stulecia, kiedy w magazynach zaczęły pojawiać się automatyczne roboty.

Polecane materiały w temacie SLAM:

Accoustic SLAM – publikacja Christine Evers i Patricka A. Naylora

Acoustic SLAM — State of the Art: Review – publikacja Baraka Ora

Autor

GlobalLogic Poland

Zobacz artykuły

Kategoria artykułu

Inne kategorie na blogu:

Popularni autorzy

Marcin Medyński

Marcin Medyński

Consultant

Patryk Siedlecki

Patryk Siedlecki

Software Engineer

Piotr Doskocz

Piotr Doskocz

Lead Software Engineer

Piotr Andrusiuk

Piotr Andrusiuk

Senior Project Manager

Monika Malucha

Monika Malucha

Senior Marketing Specialist