A Inteligência Artificial como metavocabulário pragmático em Robert Brandom

Autores

DOI:

https://doi.org/10.26512/rfmc.v13i2.55078

Palavras-chave:

Inteligência artificial. Frame problem. Robert Brandom,. Inteligiência Artificial Explicável.

Resumo

A Inteligência Artificial clássica tem um lugar fundacional em Brandom: as práticas cujo domínio constitui a posse de um vocabulário são aplicação de uma série de algoritmos. A explicitação desses algoritmos fornece uma explicação para o projeto brandomiano de trazer para o jogo de dar e receber razões os comprometimentos inferenciais implícitos em nossas práticas. Esse projeto falha por uma razão já bem conhecida na IA, o frame problem. Brandom propõe uma solução para o frame problem através de aprendizado por treinamento. A proposta de Brandom se aproxima de redes neurais desenvolvidas através do aprendizado de máquina. Se essa aproximação não permite a manutenção do quadro brandomiano de Between Saying and Doing, o paralelo com Making it Explicit traz um paralelo importante com o projeto da Inteligência Artificial Explicável, a saber, tornar explícitos os comprometimentos inferenciais implícitos de processos decisórios que afetam nossa vida em comum.

Downloads

Não há dados estatísticos.

Biografia do Autor

Ernesto Perini-Santos, Universidade Federal de Minas Gerais

Professor Titular do Departamento de Filosofia da UFMG. É pesquisador 1B do CNPq. Atualmente, é coordenador do Colegiado de Pós-Graduação em Filosofia da UFMG. Entre 2023 e 2025, foi editor-chefe da revista Kriterion. Foi membro do CA de FIlosofia do CNPq entre 2019 e 2022. Possui graduação e mestrado em Filosofia pela UFMG e doutorado em Filosofia pela Université de Tours, na França. Foi Fulbright Visiting Scholar na Stanford University (2009-2010), Boursier d'Excellence (FNS) na Université de Genève (2019-2020) e Professor Convidado na Ecole des Hautes Etudes en Sciences Sociales-Institut Jean Nicod (2022). Sua pesquisa se divide em três áreas, a filosofia da linguagem, a história da filosofia medieval e a epistemologia social.

Carlos Barth, Faculdade Jesuíta de Filosofia e Teologia

Pesquisador de pós-doutorado na FAJE - Faculdade Jesuíta de Filosofia e Teologia (MG). Doutor em Filosofia pela UFMG (Filosofia da inteligência artificial, filosofia da Mente e da filosofia da ciências cognitivas). Mestre em Filosofia pela UFMG nas mesmas áreas. Licenciado em Filosofia pela Claretiano. Bacharel em Filosofia pela UFMG. Atuou profissionalmente por 17 anos em desenvolvimento de software, com ênfase em sistemas de segurança, bem como gerenciamento de servidores e redes. Membro do grupo REDD (Rede de Estudos Democracia e Desinformação), da UFMG e do CLEA (Cognição, Linguagem, Enativismo e Afetividade) da UFSJ. Interesses de pesquisa orbitam ética em inteligência artificial, filosofia da inteligência artificial, filosofia das ciências cognitivas, filosofia da mente e epistemologia.

Referências

ABRAHÃO, F. S. et al. An algorithmic information distortion in multidimensional networks. In: Studies in Computational Intelligence. Cham: Springer International Publishing, 2021. p. 520–531.

ARJOVSKY, M. Out of distribution generalization in machine learning. arXiv preprint arXiv:2103.02667, 2021.

BARTH, C. Representational cognitive pluralism: towards a cognitive-science of relevance-sensitivity. Tese (Doutorado) — Belo Horizonte: Faculdade de Filosofia e Ciências Humanas, Universidade Federal de Minas Gerais, 2024.

BARTH, C. O “frame problem”: a sensibilidade ao contexto como um desafio para teorias representacionais da mente. Dissertação (Mestrado) — Belo Horizonte: Faculdade de Filosofia e Ciências Humanas, Universidade Federal de Minas Gerais, 2019.

BARTH, C. É possível evitar vieses algorítmicos? Revista de Filosofia Moderna e Contemporânea, v. 8, n. 3, p. 39–68, 2021.

BRANDOM, R. B. Between saying and doing: towards an analytic pragmatism. Oxford: Oxford University Press, 2008.

BRANDOM, R. B. Making it explicit: reasoning, representing and discursive commitment. Cambridge, MA: Harvard University Press, 1994.

BUCKNER, C. J. From deep learning to rational machines: what the history of philosophy can teach us about the future of artificial intelligence. Oxford: Oxford University Press, 2023.

CHRISTIAN, B. The alignment problem. New York: W. W. Norton & Company, 2020.

CHURCHLAND, P. S. Neurophilosophy: toward a unified science of the mind-brain. Cambridge, MA: MIT Press, 1989.

CLARK, A. Local associations and global reason: Fodor’s frame problem and second-order search. Cognitive Science Quarterly, n. 2, p. 115–140, 2002.

CUPANI, A. Filosofia da tecnologia. Florianópolis: Editora UFSC, 2011.

DEHAENE, S. How we learn. London: Penguin Books, 2021.

DENNETT, D. Cognitive wheels: the frame problem of AI. In: PYLYSHYN, Zenon W. (ed.). The robot’s dilemma: the frame problem in artificial intelligence. Norwood, NJ: Ablex, 1987. p. 41–64.

DREYFUS, H. What computers still can’t do. Cambridge, MA: MIT Press, 1992.

GEIRHOS, R. et al. ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness. arXiv preprint arXiv:1811.12231, 2019.

GOODMAN, B.; FLAXMAN, S. European Union regulations on algorithmic decision making and a “right to explanation”. AI Magazine, v. 38, n. 3, p. 50–57, 2017.

GUNNING, D. et al. XAI—Explainable artificial intelligence. Science Robotics, v. 4, n. 37, 2019.

HASELAGER, W. F. G.; RAPPARD, J. F. H. V. Connectionism, systematicity, and the frame problem. Minds and Machines, v. 8, p. 161–179, 1998.

HURLEY, S. Making sense of animals. In: HURLEY, Susan; NUDDS, Matthew (eds.). Rational animals? Oxford: Oxford University Press, 2006. p. 139–171.

LIU, J. et al. Towards out-of-distribution generalization: a survey. arXiv preprint arXiv:2108.13624, 2021.

LONGO, L. et al. Explainable artificial intelligence (XAI) 2.0: a manifesto of open challenges and interdisciplinary research directions. arXiv preprint arXiv:2310.19775, 2023.

MCCARTHY, J.; HAYES, P. J. Some philosophical problems from the standpoint of artificial intelligence. Machine Intelligence, v. 4, p. 463–502, 1969.

MILLER, T. Explanation in artificial intelligence: insights from the social sciences. Artificial Intelligence, v. 267, p. 1–38, 2019.

MINSKY, M. A framework for representing knowledge. In: HAUGELAND, John (ed.). Mind design II: philosophy, psychology, artificial intelligence. Cambridge, MA: MIT Press, 1997. p. 111–142.

NANDA, N. et al. Progress measures for grokking via mechanistic interpretability. arXiv preprint arXiv:2301.05217, 2023.

PERINI-SANTOS, E. Desinformação, negacionismo e a pandemia. Filosofia Unisinos, v. 23, n. 1, p. 1–15, 2022.

PERINI-SANTOS, E. Viver é fácil de olhos fechados: fake news, negacionismo e teorias da conspiração. Belo Horizonte: Editora UFMG, 2025.

PHILLIPS, P. J. et al. Four principles of explainable artificial intelligence. National Institute of Standards and Technology (U.S.), 2021.

PICCININI, G. Physical computation: a mechanistic account. Oxford: Oxford University Press, 2015.

POURSABZI-SANGDEH, F. et al. Manipulating and measuring model interpretability. In: Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (CHI ’21). New York: ACM, 2021.

RUDIN, C. Stop explaining black box machine learning models for high-stakes decisions and use interpretable models instead. arXiv preprint arXiv:1811.10154, 2018.

RYLE, G. ‘If’, ‘So’, and ‘Because’. In: BLACK, Max (ed.). Philosophical analysis. Ithaca, NY: Cornell University Press, 1950. p. 323–340.

SAMUELS, R. Classical computational models. In: SPREVAK, Mark; COLOMBO, Matteo (eds.). The Routledge handbook of the computational mind. London: Taylor & Francis, 2018. p. 103–119.

SCHANK, R. C.; ABELSON, R. P. Scripts, plans, goals and understanding. Hillsdale, NJ: Lawrence Erlbaum Associates, 1977.

SCHARP, K. A. Scorekeeping in a defective language game. Pragmatics & Cognition, v. 13, n. 1, p. 203–226, 2005.

SHANAHAN, M. Solving the frame problem: a mathematical investigation of the common sense law of inertia. Cambridge, MA: MIT Press, 1997.

SMITH, B. C. The promise of artificial intelligence: reckoning and judgment. Cambridge, MA; London: MIT Press, 2019.

STINSON, C. Explanation and connectionist models. In: SPREVAK, Mark; COLOMBO, Matteo (eds.). The Routledge handbook of the computational mind. London: Routledge, 2018.

Downloads

Publicado

21-10-2025

Como Citar

PERINI-SANTOS, Ernesto; BARTH, Carlos. A Inteligência Artificial como metavocabulário pragmático em Robert Brandom. Revista de Filosofia Moderna e Contemporânea, [S. l.], v. 13, n. 2, p. 99–136, 2025. DOI: 10.26512/rfmc.v13i2.55078. Disponível em: https://periodicos.unb.br/index.php/fmc/article/view/55078. Acesso em: 28 dez. 2025.

Artigos Semelhantes

1 2 > >> 

Você também pode iniciar uma pesquisa avançada por similaridade para este artigo.