Summary: | Recently geometric deep learning introduced a new way for machine learning algorithms to tackle point cloud data in its raw form. Pioneers like PointNet and many architectures building on top of its success realize the importance of invariance to initial data transformations. These include shifting, scaling and rotating the point cloud in 3D space. Similarly to our desire for image classifying machine learning models to classify an upside down dog as a dog, we wish geometric deep learning models to succeed on transformed data. As such, many models employ an initial data transform in their models which is learned as part of a neural network, to transform the point cloud into a global canonical space. I see weaknesses in this approach as they are not guaranteed to perform completely invariant to input data transformations, but rather approximately. To combat this I propose to use local deterministic transformations which do not need to be learned. The novelty layer of this project builds upon Edge Convolutions and is thus dubbed DirEdgeConv, with the directional invariance in mind. This layer is slightly altered to introduce another layer by the name of DirSplineConv. These layers are assembled in a variety of models which are then benchmarked against the same tasks as its predecessor to invite a fair comparison. The results are not quite as good as state of the art results, however are still respectable. It is also my belief that the results can be improved by improving the learning rate and its scheduling. Another experiment in which ablation is performed on the novel layers shows that the layers main concept indeed improves the overall results. === Nyligen har ämnet geometrisk deep learning presenterat ett nytt sätt för maskininlärningsalgoritmer att arbeta med punktmolnsdata i dess råa form.Banbrytande arkitekturer som PointNet och många andra som byggt på dennes framgång framhåller vikten av invarians under inledande datatransformationer. Sådana transformationer inkluderar skiftning, skalning och rotation av punktmoln i ett tredimensionellt rum. Precis som vi önskar att klassifierande maskininlärningsalgoritmer lyckas identifiera en uppochnedvänd hund som en hund vill vi att våra geometriska deep learning-modeller framgångsrikt ska kunna hantera transformerade punktmoln. Därför använder många modeller en inledande datatransformation som tränas som en del av ett neuralt nätverk för att transformera punktmoln till ett globalt kanoniskt rum. Jag ser tillkortakommanden i detta tillgångavägssätt eftersom invariansen är inte fullständigt garanterad, den är snarare approximativ. För att motverka detta föreslår jag en lokal deterministisk transformation som inte måste läras från datan. Det nya lagret i det här projektet bygger på Edge Convolutions och döps därför till DirEdgeConv, namnet tar den riktningsmässiga invariansen i åtanke. Lagret ändras en aning för att introducera ett nytt lager vid namn DirSplineConv. Dessa lager sätts ihop i olika modeller som sedan jämförs med sina efterföljare på samma uppgifter för att ge en rättvis grund för att jämföra dem. Resultaten är inte lika bra som toppmoderna resultat men de är ändå tillfredsställande. Jag tror även resultaten kan förbättas genom att förbättra inlärningshastigheten och dess schemaläggning. I ett experiment där ablation genomförs på de nya lagren ser vi att lagrens huvudkoncept förbättrar resultaten överlag.
|