Hi<br><br>I'm developing a software with VTK that sometimes needs to process very large datasets It is quite easy to run into a situation where the software eats up all memory and has to be killed. I've had some success with using streaming (especially the vtkMemoryLimitImageDataStreamer) but I'm not sure if I'm making use of it's full potential. Therefore, I have a couple of questions.
<br><br>Our software is developed in a way where there can be a variable amount of processing filters between the datasource and when it's rendered. Currently, the software doesn't build a pipeline in the traditional sense, where you connect all the filters together and then update the last one, but instead, most of the steps Update the pipeline and pass the processed data forward.
<br><br>A typical &quot;pipeline&quot; inside the program might be:<br><br style="font-family: courier new,monospace;"><span style="font-family: courier new,monospace;">XMLImageDataReader -&gt; Reslice -&gt;&nbsp; </span><br style="font-family: courier new,monospace;">
<span style="font-family: courier new,monospace;">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Merging</span><br style="font-family: courier new,monospace;"><span style="font-family: courier new,monospace;">XMLImageDataReader -&gt; Reslice -&gt; 
</span><br><br><br><br>2) Can the readers utilize streaming, meaning, can XMLImageDataReader for example return data in pieces<br><br><br><br><br>