Donc, s'il y a des ET qui survivent quelque part, il faut bien qu'ils aient la faculté de le faire, c'est indiscutable. Là où on peut spéculer à l'infini, c'est dans le cas d'ET intelligents: comment définiront-ils leur «survie» et comment décideront-ils des gestes nécessaires à l'assurer?
Je m'excuse de revenir encore avec la même chanson, «question de définition», bla-bla-bla. Seulement, il faut se rendre à l'évidence quand on parle d'action réfléchie le language c'est 95% de la question. La réflexion se fait par codage métaphorique, catégorisation, etc. cad un language quelconque. Évidemment on pourrait s'imaginer des ET qui «pensent» directement la réalité observée mais dans ce cas ils agiraient rarement et donc ne survivraient pas: en découpant la réalité au microscope à l'infini on en apprend beaucoup mais on détruit la capacité de prédire l'effet d'une action. L'action devient donc problématique puisqu'on aurait besoin d'une quantité infinie d'information avant d'agir. Il serait donc raisonnable de prévoir que même une société ultra-scientifique (au sens méthodologique: au sens du contenu il serait idiot d'imaginer une société qui sache absolument tout de la réalité) aurait une vie socio-culturelle véhiculée par un language flexible et fortement coloré par une histoire locale imprévisible.
Puisqu'on est dans la SF, il y a une exploration intéressante de ce problème dans la série des «Chanur» de C. J. Cherryh.