<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:times new roman,new york,times,serif;font-size:12pt"><div>I'd like to understand how exactly mouse motion is translated into movement in 3D space of the vtk3DWidgets.<br><br>For example: /Examples/GUI/Python/ProbeWithPointWidget.py<br>Apparently I can move the point widget along all three axes for any fixed scene orientation.<br>I think that the mouse x,y-coordinated must be projected onto some plane in 3D space, which touches the point widget. Correct? But WHICH plane?<br><br>Where can I find a more detailed explanation on widget interaction besides that widgets can be moved in 3D by the mouse? In "The Visualization Toolkit (3rd Edition)" they write "The initial direction of motion is used to determine which of the axes the user is moving the endpoint along". But this doesn't explain much.<br><br>Leandros<br></div></div><br>


      </body></html>