Incerteza moral e Meta normatividade

Autores

Resumo

Como devemos conciliar valores morais contraditórios? Como devemos eleger os nossos representantes políticos? Como as preferências individuais podem ser agregadas de forma justa para representar uma vontade, norma ou decisão social? Um campo emergente de estudo fornece um plano interdisciplinar para perguntas como estas. A área de pesquisa em segurança em Inteligência Artificial, que dentro da filosofia é uma das vertentes contemporâneas da ética de máquina, vem ganhando rápida expansão nos últimos anos. Um dos principais objetivos desta área é o alinhamento de valores entre agentes artificiais e humanos, ou seja, como imbuir nossas preferências morais de forma robusta e clara a processos autônomos. Na cerne do que chamamos de problema de alinhamento existem diversas questões filosóficas importantes, questões que vão além de qualquer limitação técnica que atualmente enfrentamos, uma delas sendo o problema de tomada de decisão em situação de incerteza moral. Afinal, o que devemos fazer quando não sabemos o que fazer? Neste estudo irei revisar uma estratégia de tomada de decisão lidando com incerteza moral. Por fim, iremos propor uma integração de um modelo meta normativo com a teoria da utilidade esperada, resultando em um modelo para tomada de decisão adequado para situações de incerteza empírica e moral.

Downloads

Não há dados estatísticos.

Biografia do Autor

Nicholas Kluge Corrêa, PUCRS

Mestre em Engenharia Elétrica e Doutorando em Filosofia (PUCRS)

Referências

AMODEI, D, OLAH, C, STEINHARDT, J, CHRISTIANO, P, SCHULMAN, J. MANÉ, D. Concrete Problems In AI Safety. [online] arXiv.org, 2016. Disponível em: https://arxiv.org/abs/1606.06565. Acessado em 19 de Agosto de 2020.

BYKVIST, K. Moral uncertainty. Philosophy Compass, 12(3), 2017. Disponível em: https://doi.org/10.1111/phc3.12408

CHALMERS, D. The singularity: A philosophical analysis. Journal of Consciousness Studies 17 (9-10), pp. 9 – 10, 2010.

CROWLEY, J. Woman Says Amazon's Alexa Told Her To Stab Herself In The Heart For “The Greater Good”. [online] Newsweek, 24 de dezembro de 2019. Disponível em: https://www.newsweek.com/amazon-echo-tells-uk-woman-stab-herself-1479074. Acessado em 19 de Agosto de 2020.

GREAVES, H. COTTON-BARRATT, O. A bargaining-theoretic approach to moral uncertainty. 2019. Disponível em: http://users.ox.ac.uk/~mert2255/papers/bargaining-theory-and-MU.pdf. Acessado em 19 de Agosto de 2020.

GUSTAFSSON , J. E. TORPMAN, O. In Defence of My Favourite Theory. Pacific Philosophical Quarterly, 95(2), pp. 159-174, 2014. Disponível em: https://doi.org/10.1111/papq.12022. Acessado em 19 de Agosto de 2020.

GUTERRES, A. Transcript of the Secretary-General's virtual press encounter on the appeal for global ceasefire. United Nations Secretary-General, Statements/Reports. 23 March 2020. Disponível em: https://www.un.org/sg/en/content/sg/press-encounter/2020-03-23/transcript-of-the-secretary-generals-virtual-press-encounter-the-appeal-for-global-ceasefire. Acessado em 19 de Agosto de 2020.

HAGENDORFF, T. The Ethics of AI Ethics: An Evaluation of Guidelines. Minds and Machines, 39, pp. 99-120, 2020. doi:10.1007/s11023-020-09517-8.

HARMAN, E. The Irrelevance of Moral Uncertainty. In Oxford Studies in Metaethics. 10, pp. 53-79, 2015. Disponível em: http://www.princeton.edu/~eharman/documents/UncorrectedProofsIrrelevanceUncertainty.pdf. Acessado em 19 de Agosto de 2020.

HICKS, A. Moral Hedging and Responding to Reasons. Pacific Philosophical Quarterly 100 (3), pp.765-789, 2019. Disponível em: https://philarchive.org/archive/HICMHA. Acessado em 19 de Agosto de 2020.

IASON, G. Artificial Intelligence, Values, and Alignment. DeepMind, [online] arXiv.org, 2020. Disponível em: https://arxiv.org/abs/2001.09768v1. Acessado em 19 de Agosto de 2020.

JOBIN, A, IENCA, M, VAYENA, E The global landscape of AI ethics guidelines. Nat Mach Intell 1, pp. 389–399, 2019. Disponível em: https://doi.org/10.1038/s42256-019-0088-2. Acessado em 19 de Agosto de 2020.

JURIĆ, M. ŠANDIĆ, A. BRCIC, M. AI safety: state of the field through quantitative lens. 2020. Disponível em: https://arxiv.org/ftp/arxiv/papers/2002/2002.05671.pdf. Acessado em 19 de Agosto de 2020.

LOCKHART, T. 2000. Moral Uncertainty and Its Consequences. Oxford University Press. ISBN: 9780195126105

MACASKILL, W. Normative Uncertainty. Thesis for the degree of Doctor of Philosophy. St Anne’s College, University of Oxford, February 2014. Disponível em: http://commonsenseatheism.com/wp-content/uploads/2014/03/MacAskill-Normative-Uncertainty.pdf. Acessado em 19 de Agosto de 2020.

MACASKILL, W. ORD, T. Why Maximize Expected Choice‐Worthiness?. Noûs, 12264, pp. 1–27, 2018. doi: 10.1111/nous

ROSS, J. Rejecting Ethical Deflationism. Ethics, 116, pp. 742–768, 2006. doi: 10.1086/505234. Disponível em: https://www.jstor.org/stable/10.1086/505234. Acessado em 19 de Agosto de 2020.

SEPIELLI, A. What to Do When You Don’t Know What To Do. IN Oxford Studies in Metaethics, edited by Russ Shafer-Landau, 35, 2009. Oxford University Press.

von NEUMANN, J. Morgenstern, O. Theory of Games and Economic Behavior. 1st ed. Princeton, NJ: Princeton University Press, 1944.

WEATHERSON, B. Review of Ted Lockhart’s “Moral Uncertainty and Its Consequences”. Mind, 111, pp. 693–696, 2002.

WOLF, M. J. MILLER, K. GRODZINSKY, F. S. Why we should have seen that coming: comments on microsoft’s tay experiment, and wider implications. ACM SIGCAS Computers and Society 47(3), pp. 54–64, 2017.

Downloads

Publicado

02/04/2021

Edição

Seção

Artigos