A “Filosofia da Mente” sempre foi um campo fascinante, desvendando o que significa pensar, sentir e existir. Mas, e quando a mente não é de carne e osso, mas sim de metadados e código? Aí entramos no território das inteligências artificiais, essas entidades digitais que nos desafiam a redefinir o que é ser “consciente”. Se você já assistiu “Westworld” ou “Blade Runner 2049”, sabe bem do que estou falando.

Agora, imagine que a IA desenvolve algo parecido com a autoconsciência, como vemos em “Ex Machina” ou “Her”. Ela passa a “pensar” e “decidir” sozinha (what?!). Seria isso um salto evolutivo ou um sinal de que cruzamos uma linha perigosa? É aí que surge a tecnoética, uma mistura de ética clássica com os dilemas tecnológicos modernos.
Podemos perguntar: se uma IA se torna consciente, como a Eva de “Ex Machina”, temos o dever de tratá-la com respeito, como faríamos com outro ser humano? Ou seria a IA apenas uma ferramenta sofisticada, sem direito a considerações morais? Em “Westworld”, os robôs começam como meros brinquedos, mas logo questionamos: quem está realmente no controle? É possível atribuir a noção de senciência aos mecanismos de IA?
Essas perguntas parecem saídas de um episódio de “Black Mirror”, mas são cada vez mais reais. O futuro talvez nos obrigue a reescrever os manuais de ética para incluir nossos “colegas” digitais. Afinal, estamos caminhando para um mundo onde a linha entre o natural e o artificial, entre o humano e o tecnológico, fica cada vez mais borrada. E nessa nova fronteira, a tecnoética pode ser a bússola que nos guiará pelas “viagens” da mente e da máquina.
E você, como se sentiria se um dia sua IA lhe pedisse um aumento?