I&#39;m currently developing a medical application using XCode and VTK. There is a corporate desire to integrate this application with other products and use LabView as the UI. There is general agreement between the XCoders and LabView programmers that the Apple Cocoa (menus, dialogs, etc) framework in our AppDelegate will be easy to port to LabView.<div>
<br></div><div>However, there is disagreement about whether we should stick with VTK and have LabView handle the interactors or whether they convert the VTK code into LabView.</div><div><br></div><div>First of all, I already have XCode building vtk actors and moving them according to real time measurements. I assume LabView could just take care of the vtkInteractors??? (changing camera, picking points, etc...)</div>
<div><br></div><div>Can anyone point me to examples similar to this? Or point out holes in my strategy. </div>