Antes de avançar mais 1 passo em alguma dessas questões, deixo aqui a referência a um recente estudo que elucida melhor a sociopatia humana à qual a inteligência artificial está assim a ser eventualmente reportada. É o artigo de J. Decety et. al., "Atypical empathic responses in adolescents with aggressive conduct disorder: A functional MRI investigation", Biological Psyhology, 80 (2) 2009: 203-211 (http://ccsn.uchicago.edu/events/Decety_BiologicalPsy2008.pdf).
A hipótese a testar foi a de que os adolescentes violentos se revelariam emocionalmente indiferentes ao sofrimento das respectivas vítimas. A metodologia empregue foi a da visualização do cérebro em actividade, aplicada a tais jovens que assistiam a imagens de violência. A MRI, porém, infirmou aquela hipótese, revelando antes que, nos delinquentes, as emoções são solicitadas... mas mediante os centros cerebrais do prazer! Ou seja, invertendo a empatia pela qual se sofre perante o sofrimento de um semelhante a nós, aparentemente a sociopatia associa prazer no próprio ao sofrimento alheio - sofrimento de algo que assim deixará de ser semelhante ao sujeito do prazer. Daí a opção por comportamentos destrutivos ao invés de construtivos ou pelo menos liberais.
Voltando aos robots, e à questão da escolha ética, desde logo me parece que essa experiência coloca mais um problema à tese funcionalista segundo a qual a mente se explica pelas funções exercidas, nomeadamente desde um input a um output passando pelo tratamento lógico, formal da informação; sendo indiferente que o que implementa tais funções sejam células nervosas (neurónios), ou semicondutores num sistema de hardware, etc. - daí a ideia de que a inteligência artificial será equivalente à humana - e derivando o output (comportamentos resultantes) do input + regras de tratamento da informação.
Diferentemente, no momento intermédio do tratamento da informação pelos vistos ocorrem qualidades emocionais (sofrimento, prazer...) que não derivam do input, nem decorrem estritamente do sistema de tratamento da informação, mas que determinam o sentido desta última, condicionando assim o output comportamental - ex. ou o sofrimento que gera solidariedade, ou o prazer que gera destruição gratuita.
A questão de uma eventual "robopatia" dependerá então 1) da inteligência artificial poder gerar tais qualidades, não se restringindo ao tratamento formal da informação; e 2) dessa geração ser livre, escapando à programação prévia do robot, de tal modo que nestes possam passar a ocorrer qualidades emocionais pervertidas. Note-se que isto porventura se conjuga com toda uma teoria da mente, nomeadamente com os processos perceptivos pelos quais se reconhece o outro como semelhante, ou como objecto de exercício do poder; ou com os processos éticos e mesmo existenciais pelos quais se opta pelo poder-destruir em detrimento do poder-construir...
Sem comentários:
Enviar um comentário