18:30 até às 20:30
Human Entities 2017 Conversa 1 Adrian Currie

Human Entities 2017 Conversa 1 Adrian Currie

Grátis
[English below]
Human Entities: a cultura na era da inteligência artificial – 2ª edição 2017    
4ª feira, 4 outubro, 2017, 18.30 – 20.30
ENTRADA LIVRE mediante registo

Porque importam as histórias: narrativas sobre inteligência artificial, risco existencial, e ciência
Adrian Currie (NZ, UK) - The Centre for the Study of Existential Risk, University of Cambridge, UK

Quero falar sobre a forma como as histórias – narrativas – sobre tecnologias emergentes, como a inteligência artificial, afectam o modo como estas são recebidas fora da ciência, e como são desenvolvidas dentro da ciência. 

O nosso poder tecnológico está a aumentar a um ritmo tal que a nossa capacidade para o controlar e compreender tem dificuldades em acompanhar. Dado o poder transformativo que as tecnologias emergentes provavelmente terão para a sociedade humana, considerar os possíveis futuros que estas nos trarão, é crucial. 

A minha abordagem a esta reflexão é através da discussão do risco existencial: riscos que, a acontecerem, são uma ameaça à nossa existência como espécie, ou a aspectos cruciais da civilização humana. Falarei de porque está a ciência, da forma como se organiza actualmente, mal equipada para lidar com riscos existenciais. 

Em síntese, a ciência contém atributos que a tornam produtiva mas conservadora, e este conservadorismo prejudica a nossa capacidade de pensar da forma criativa e especulativa que o risco existencial requer. A partir desta discussão, falarei da importância das narrativas na nossa compreensão do risco existencial e das tecnologias emergentes, em particular a inteligência artificial. Se é verdade que as histórias que contamos sobre a tecnologia moldam o seu desenvolvimento, então se estas são escassas, ou pobres, podem deformar o progresso tecnológico e produzir problemáticos – ou desastrosos – resultados.

Adrian Currie
Adrian está particularmente interessado na forma como os cientistas produzem conhecimento em circunstâncias complicadas: onde a evidência no terreno é ténue, os objectos são complexos e obstinados, e a nossa compreensão é limitada. Enfatiza as estratégias oportunísticas, pluralistas e especulativas que os cientistas adoptam para ultrapassar esses desafios. Publicou amplamente em tópicos como o método nas ‘ciências históricas’ (paleontologia, arqueologia e geologia), o método comparativo em biologia, a natureza e ciência da música, questões éticas e científicas na geoengenharia e a importância do storytelling na ciência. Terminou o seu PhD na Universidade Nacional Australiana em Camberra, leccionou e trabalhou na Universidade de Victoria em Wellington, Universidade de Sydney, Universidade de Calgary, Universidade de Bucareste e na Universidade de Cambridge onde trabalha actualmente no Centro para o Estudo do Risco Existencial. No centro, investiga de que forma a estrutura de incentivos que orienta a ciência, a torna frequentemente conservadora, e potencialmente inadequada para os desafios que poderosas tecnologias representam. 

Links:
CSER (http://cser.org/) 
https://sites.google.com/site/adrianmitchellcurrie/
http://www.extinctblog.org/

A conversa com Adrian Currie será seguida de uma sessão de Q&A moderada por Joana Lobo Antunes, Coordenadora do Gabinete de Comunicação do Instituto de Tecnologia Química e Biológica António Xavier, Universidade Nova de Lisboa.
https://twitter.com/JoanaLoA
http://www.itqb.unl.pt/about-us/organization/communication-office%20 

Este evento está integrado no ciclo:
Human Entities: a cultura na era da inteligência artificial
Ciclo de conversas outubro – novembro 2017

Ver ptograma: https://goo.gl/G1PZTh 
http://www.cada1.net/works/human-entities-culture-in-the-age-of-artificial-intelligence-2nd-edition-2017/ 

Organização CADA em parceria com a Trienal de Arquitectura de Lisboa - http://www.cada1.net/

Human Entities é financiado pela Direção-Geral das Artes, Câmara Municipal de Lisboa e NOVA LINCS, Universidade Nova de Lisboa.

ENGLISH 

Human Entities: culture in the age of artificial intelligence – 2nd edition 2017
Talk 1 – Adrian Currie
Wednesday 4 October, 2017, 18.30 - 20.30
Free entry registration required

Why stories matter: AI narratives, existential risk, and science
Adrian Currie (NZ/UK), The Centre for the Study of Existential Risk, University of Cambridge, UK

I want to talk about how stories—narratives—about emerging technologies like artificial intelligence matter to both how they are received outside science, and are developed within it.

Our technological power is increasing, often leaving our ability to control and understand it struggling to keep up. Given how transformative emerging technologies are likely to be for human society, considering the possible futures they might take us down are crucial.

My way into this discussion is through existential risk: risks which, if actualized, pose a threat to our existence as a species, or to crucial aspects of human civilization. I will talk about why science, as currently organized, is ill-suited for tackling existential risks.

In brief, science has features which make it productive but conservative, and this conservatism undermines our capacity to think in the creative, speculative ways that existential risks demand. From this discussion, I’ll turn to the importance of narratives in our understanding of existential risk and emerging technologies, artificial intelligence in particular. If it is right that the stories we tell about technology shape its development, then if our stories are too few, or too impoverished, that could warp technological progress and have problematic—or disastrous—results.

Adrian Currie
Adrian is primarily interested in how scientists generate knowledge in tricky circumstances: where evidence is thin on the ground, targets are complex and obstinate, and our understanding is limited. He emphasizes the opportunistic, pluralistic and speculative strategies scientists adopt to overcome such challenges. He has published widely on topics from the method of the ‘historical sciences’ (paleontology, archaeology and geology), the comparative method in biology, the nature and science of music, ethical and scientific issues concerning geoengineering, and the importance of storytelling in science. He completed his PhD at the Australian National University in Canberra and has taught and worked at the University of Victoria in Wellington, the University of Sydney, the University of Calgary, the University of Bucharest, and in Cambridge, where he currently works for the Centre for the Study of Existential Risk. At the centre, he is investigating how the incentive structures which drive science often make it conservative, and potentially inadequate for the challenges powerful emerging technologies pose.

Links:
CSER, http://cser.org
https://sites.google.com/site/adrianmitchellcurrie
http://www.extinctblog.org

Adrian’s talk will be followed by a Q&A session moderated by Joana Lobo Antunes, Head  Communication office, Instituto de Tecnologia Química e Biológica António Xavier, Universidade Nova de Lisboa. 
https://twitter.com/JoanaLoA
http://www.itqb.unl.pt/about-us/organization/communication-office%20 

Venue:
Lisbon Architecture Triennale, Campo Santa Clara 142-145, 1100-474 Lisbon, Portugal
Wednesday 4 October, 2017, 18.30 - 20.30

This talk is part of:
Human Entities: culture in the age of artificial intelligence
Public talks October – November 2017

See programme: https://goo.gl/G1PZTh 
http://www.cada1.net/works/human-entities-culture-in-the-age-of-artificial-intelligence-2nd-edition-2017/ 

Organised by CADA in partnership with em Lisbon Architecture Triennale

Human Entities is funded by Direção-Geral das Artes, Câmara Municipal de Lisboa and  NOVA LINCS, Universidade Nova de Lisboa.
Recomendamos que confirme toda a informação junto do promotor oficial deste evento. Por favor contacte-nos se detectar que existe alguma informação incorrecta.
Download App iOS
Viral Agenda App
Download App Android