Neurofilosofía
La neurofilosofía o filosofía de la neurociencia es el estudio interdisciplinario de la neurociencia y la filosofía que explora la relevancia de los estudios neurocientíficos para los argumentos tradicionalmente categorizados como filosofía de la mente. La filosofía de la neurociencia intenta aclarar los métodos y resultados neurocientíficos utilizando el rigor conceptual y los métodos de la filosofía de la ciencia.
Problemas específicos
A continuación se muestra una lista de temas específicos importantes para la filosofía de la neurociencia:
- La indirecta de los estudios de la mente y el cerebro»
- Análisis computacional o representacional del procesamiento cerebral»
- Relaciones entre consultas psicológicas y neurocientíficas»
- Modularidad de la mente
- Qué constituye una explicación adecuada en neurociencia?
- Ubicación de la función cognitiva»
La indirecta de los estudios de la mente y el cerebro
Muchos de los métodos y técnicas centrales para el descubrimiento neurocientífico se basan en suposiciones que pueden limitar la interpretación de los datos. Los filósofos de la neurociencia han discutido tales suposiciones en el uso de la resonancia magnética funcional, disociación en neuropsicología cognitiva, grabación de una sola unidad, y neurociencia computacional.
Las siguientes son descripciones de muchas de las controversias y debates actuales sobre los métodos empleados en neurociencia.
FMRI
Muchos estudios de fMRI se basan en gran medida en el supuesto de «localización de la función» (lo mismo que la especialización funcional). La localización de la función significa que muchas funciones cognitivas se pueden localizar en regiones cerebrales específicas. Un buen ejemplo de localización funcional proviene de estudios de la corteza motora.
Parece haber diferentes grupos de células en la corteza motora responsables de controlar diferentes grupos de músculos. Muchos filósofos de la neurociencia critican fMRI por confiar demasiado en esta suposición. Michael Anderson señala que el método de sustracción fMRI pierde mucha información del cerebro que es importante para los procesos cognitivos.
La sustracción fMRI solo muestra las diferencias entre la activación de la tarea y la activación del control, pero muchas de las áreas del cerebro activadas en el control son obviamente importantes para la tarea también.
Algunos filósofos rechazan por completo cualquier noción de localización de la función y, por lo tanto, creen que los estudios de IRMf están profundamente equivocados. Estos filósofos sostienen que el procesamiento del cerebro actúa de manera integral, que grandes secciones del cerebro están involucradas en el procesamiento de la mayoría de las tareas cognitivas (ver holismo en neurología y la sección de modularidad a continuación).Una manera de entender su objeción a la idea de la localización de la función es el experimento de reparación del hombre por radio.
En este experimento mental, un técnico de radio abre una radio y le arranca un tubo. La radio comienza a silbar ruidosamente y el técnico de la reparación de la radio declara que debe haber arrancado el tubo antisileteador. No hay un tubo anti-silbido en la radio y el técnico de reparación de radio ha confundido la función con el efecto.
Esta crítica se dirigió originalmente a la lógica utilizada por los experimentos de lesiones cerebrales neuropsicológicas, pero la crítica aún es aplicable a la neuroimagen. Estas consideraciones son similares a las críticas de Van Orden y Paap a la circularidad en la lógica de neuroimagen.Según ellos, los neuroimagen suponen que su teoría de la parcelación de componentes cognitivos es correcta y que estos componentes se dividen limpiamente en módulos de alimentación.
Estas suposiciones son necesarias para justificar su inferencia de localización cerebral. La lógica es circular si el investigador usa la apariencia de la activación de la región cerebral como prueba de la exactitud de sus teorías cognitivas.
Una suposición metodológica problemática diferente dentro de la investigación de fMRI es el uso de inferencia inversa Una inferencia inversa es cuando la activación de una región del cerebro se usa para inferir la presencia de un proceso cognitivo dado. Poldrack señala que la fuerza de esta inferencia depende críticamente de la probabilidad de que una tarea determinada emplee un proceso cognitivo dado y la probabilidad de ese patrón de activación cerebral dado ese proceso cognitivo.
En otras palabras, la fuerza de la inferencia inversa se basa en la selectividad de la tarea utilizada, así como en la selectividad de la activación de la región cerebral. Un artículo de 2011 publicado en los tiempos de Nueva York ha sido muy criticado por mal uso de la inferencia inversa.En el estudio, a los participantes se les mostraron imágenes de sus iPhones y los investigadores midieron la activación de la ínsula.
Los investigadores tomaron la activación de la ínsula como evidencia de sentimientos de amor y concluyeron que las personas amaban sus iPhones. Los críticos se apresuraron a señalar que la ínsula no es una pieza de corteza muy selectiva y, por lo tanto, no es susceptible de inferencia inversa.
El neuropsicólogo Max Coltheart llevó los problemas con la inferencia inversa un paso más allá y desafió a los neuroimagen a dar una instancia en la que la neuroimagen había informado la teoría psicológica Coltheart considera que la carga de la prueba es una instancia en la que los datos de imágenes cerebrales son consistentes con una teoría pero inconsistente con otra teoría.
Roskies sostiene que la posición ultracognitiva de Coltheart hace que su desafío sea imposible de ganar.Dado que Coltheart sostiene que la implementación de un estado cognitivo no tiene relación con la función de ese estado cognitivo, es imposible encontrar datos de neuroimagen que puedan comentar las teorías psicológicas de la manera que Coltheart exige.
Los datos de neuroimagen siempre se relegarán al nivel inferior de implementación y no podrán determinar selectivamente una u otra teoría cognitiva. En un artículo de 2006, Richard Henson sugiere que la inferencia directa puede usarse para inferir la disociación de la función a nivel psicológico. Sugiere que este tipo de inferencias se pueden hacer cuando hay activaciones cruzadas entre dos tipos de tareas en dos regiones del cerebro y no hay cambio en la activación en una región de control mutuo.
Una suposición final que vale la pena mencionar es la suposición de inserción pura en fMRI.La suposición de inserción pura es la suposición de que un solo proceso cognitivo puede insertarse en otro conjunto de procesos cognitivos sin afectar el funcionamiento del resto. Por ejemplo, si desea encontrar el área de comprensión de lectura del cerebro, puede escanear a los participantes mientras se les presenta una palabra y mientras se les presenta una no palabra (por ejemplo, «Floob»).
Si deduce que la diferencia resultante en el patrón cerebral representa las regiones del cerebro involucradas en la comprensión lectora, ha asumido que estos cambios no reflejan los cambios en la dificultad de la tarea o el reclutamiento diferencial entre tareas. El término inserción pura fue acuñado por Donders como una crítica a los métodos de tiempo de reacción.
Recientemente, los investigadores han comenzado a utilizar una nueva técnica de imagen funcional llamada resonancia magnética funcional en estado de reposo.Los cerebros de los sujetos se escanean mientras el sujeto se sienta sin hacer nada en el escáner. Al observar las fluctuaciones naturales en el patrón en negrita mientras el sujeto está en reposo, los investigadores pueden ver qué regiones del cerebro varían conjuntamente en la activación.
Pueden usar los patrones de covarianza para construir mapas de áreas cerebrales funcionalmente vinculadas. El nombre «conectividad funcional» es algo engañoso ya que los datos solo indican co-variación. Aún así, este es un método poderoso para estudiar grandes redes en todo el cerebro. Hay un par de cuestiones metodológicas importantes que deben abordarse.
En primer lugar, hay muchos mapas cerebrales posibles que podrían usarse para definir las regiones cerebrales de la red. Los resultados pueden variar significativamente según la región del cerebro elegida. En segundo lugar,
Las regiones cerebrales de interés están algo limitadas por el tamaño de los vóxeles. Rs-fcMRI usa vóxeles que tienen unos pocos milímetros en cubos, por lo que las regiones del cerebro deberán definirse a mayor escala. Dos de los métodos estadísticos que se aplican comúnmente al análisis de red pueden funcionar en la escala espacial de un solo vóxel, pero los métodos de la teoría de gráficos son extremadamente sensibles a la forma en que se definen los nodos.
Las regiones cerebrales se pueden dividir según su arquitectura celular, según su conectividad o según las medidas fisiológicas. Alternativamente, podría adoptar un enfoque teórico neutral y dividir aleatoriamente la corteza en particiones del tamaño que elija. Como se mencionó anteriormente, hay varios enfoques para el análisis de redes una vez que se han definido las regiones del cerebro.
El análisis basado en semillas comienza con una región de semillas definida a priori y encuentra todas las regiones que están funcionalmente conectadas a esa región. Wig y col. Tenga en cuenta que la estructura de red resultante no proporcionará ninguna información sobre la interconectividad de las regiones identificadas o las relaciones de esas regiones con otras regiones que no sean la región semilla.
Otro enfoque es utilizar un análisis de componentes independiente para crear mapas de componentes espacio-temporales y los componentes se ordenan por componentes que transportan información de interés y aquellos que son causados por el ruido. Wigs y col. Una vez más advierte que la inferencia de las comunidades funcionales de la región del cerebro es difícil bajo ICA.
ICA también tiene el problema de imponer la ortogonalidad en los datos. Tenga en cuenta que la estructura de red resultante no proporcionará ninguna información sobre la interconectividad de las regiones identificadas o las relaciones de esas regiones con otras regiones que no sean la región semilla.
Otro enfoque es utilizar un análisis de componentes independiente para crear mapas de componentes espacio-temporales y los componentes se ordenan por componentes que transportan información de interés y aquellos que son causados por el ruido. Wigs y col. Una vez más advierte que la inferencia de las comunidades funcionales de la región del cerebro es difícil bajo ICA.
ICA también tiene el problema de imponer la ortogonalidad en los datos. Tenga en cuenta que la estructura de red resultante no proporcionará ninguna información sobre la interconectividad de las regiones identificadas o las relaciones de esas regiones con otras regiones que no sean la región semilla.
Otro enfoque es utilizar un análisis de componentes independiente para crear mapas de componentes espacio-temporales y los componentes se ordenan por componentes que transportan información de interés y aquellos que son causados por el ruido. Wigs y col. Una vez más advierte que la inferencia de las comunidades funcionales de la región del cerebro es difícil bajo ICA.
ICA también tiene el problema de imponer la ortogonalidad en los datos. Otro enfoque es utilizar un análisis de componentes independiente para crear mapas de componentes espacio-temporales y los componentes se ordenan por componentes que transportan información de interés y aquellos que son causados por el ruido.
Wigs y col. Una vez más advierte que la inferencia de las comunidades funcionales de la región del cerebro es difícil bajo ICA. ICA también tiene el problema de imponer la ortogonalidad en los datos. Otro enfoque es utilizar un análisis de componentes independiente para crear mapas de componentes espacio-temporales y los componentes se ordenan por componentes que transportan información de interés y aquellos que son causados por el ruido.
Wigs y col. Una vez más advierte que la inferencia de las comunidades funcionales de la región del cerebro es difícil bajo ICA. ICA también tiene el problema de imponer la ortogonalidad en los datos.La teoría de grafos utiliza una matriz para caracterizar la covarianza entre regiones que luego se transforma en un mapa de red.
El problema con el análisis de la teoría de gráficos es que el mapeo de la red está fuertemente influenciado por la región del cerebro a priori y la conectividad (nodos y bordes), por lo tanto, el investigador corre el riesgo de elegir regiones y conexiones de cereza según sus propias teorías. Sin embargo, el análisis de la teoría de grafos es extremadamente valioso ya que es el único método que proporciona relaciones por pares entre nodos.
ICA tiene la ventaja adicional de ser un método bastante basado en principios. Parece que usar ambos métodos será importante para descubrir la conectividad de red del cerebro. Mumford y col.
Disociación en neuropsicología cognitiva
La neuropsicología cognitiva estudia a los pacientes con daño cerebral y utiliza los patrones de deterioro selectivo para hacer inferencias sobre la estructura cognitiva subyacente. La disociación entre funciones cognitivas se considera evidencia de que estas funciones son independientes. Los teóricos han identificado varios supuestos clave que son necesarios para justificar estas inferencias:
1) Modularidad funcional : la mente está organizada en módulos cognitivos funcionalmente separados. 2) Modularidad anatómica- el cerebro está organizado en módulos funcionalmente separados. Esta suposición es muy similar a la suposición de localización funcional. Estos supuestos difieren del supuesto de modularidad funcional, porque es posible tener módulos cognitivos separables que se implementan mediante patrones difusos de activación cerebral.
3) Universalidad : la organización básica de la modularidad funcional y anatómica es la misma para todos los humanos normales. Esta suposición es necesaria si queremos hacer una afirmación sobre la organización funcional basada en la disociación que se extrapola de la instancia de un estudio de caso a la población.
4) Transparencia / Restabilidad- la mente no sufre una reorganización sustancial después del daño cerebral. Es posible eliminar un módulo funcional sin alterar significativamente la estructura general del sistema. Esta suposición es necesaria para justificar el uso de pacientes con daño cerebral para hacer inferencias sobre la arquitectura cognitiva de las personas sanas.
Existen tres tipos principales de evidencia en neuropsicología cognitiva: asociación, disociación simple y disociación doble. Las inferencias de asociación observan que es probable que ocurran ciertos déficits. Por ejemplo, hay muchos casos que tienen déficits en la comprensión de palabras abstractas y concretas después del daño cerebral.
Los estudios de asociación se consideran la forma más débil de evidencia, ya que los resultados podrían explicarse por el daño a las regiones cerebrales vecinas y no a un solo sistema cognitivo.Las inferencias de disociación única observan que una facultad cognitiva se puede salvar mientras que otra se puede dañar después del daño cerebral.
Este patrón indica que a) las dos tareas emplean diferentes sistemas cognitivos b) las dos tareas ocupan el mismo sistema y la tarea dañada está aguas abajo de la tarea ahorrada o c) que la tarea ahorrada requiere menos recursos cognitivos que la tarea dañada. El «estándar de oro» para la neuropsicología cognitiva es la doble disociación.
La doble disociación ocurre cuando el daño cerebral deteriora la tarea A en el paciente 1 pero ahorra la tarea B y el daño cerebral ahorra la tarea A en el paciente 2 pero daña la tarea B. Se supone que una instancia de doble disociación es prueba suficiente para inferir módulos cognitivos separados en el desempeño de las tareas.
Muchos teóricos critican la neuropsicología cognitiva por su dependencia de las dobles disociaciones. En un estudio ampliamente citado, Joula y Plunkett utilizaron un modelo de sistema conexionista para demostrar que los patrones de comportamiento de doble disociación pueden ocurrir a través de lesiones aleatorias de un solo módulo.Crearon un sistema conexionista multicapa entrenado para pronunciar palabras.
Simularon repetidamente la destrucción aleatoria de nodos y conexiones en el sistema y trazaron el rendimiento resultante en un diagrama de dispersión. Los resultados mostraron déficits en la pronunciación de sustantivos irregulares con pronunciación de verbos regulares ahorrados en algunos casos y déficits en la pronunciación de verbos regulares con pronunciación de sustantivos irregulares ahorrados.
Estos resultados sugieren que una sola instancia de doble disociación es insuficiente para justificar la inferencia a múltiples sistemas.
Charter ofrece un caso teórico en el que la lógica de doble disociación puede ser defectuosa. Si dos tareas, la tarea A y la tarea B, usan casi todos los mismos sistemas pero difieren en un módulo mutuamente excluyente, entonces la lesión selectiva de esos dos módulos parecería indicar que A y B usan sistemas diferentes.
Charter utiliza el ejemplo de alguien que es alérgico al maní pero no al camarón y alguien que es alérgico al camarón y no al maní. Argumenta que la lógica de doble disociación lleva a inferir que los cacahuetes y los camarones son digeridos por diferentes sistemas. John Dunn ofrece otra objeción a la doble disociación.Afirma que es fácil demostrar la existencia de un verdadero déficit, pero es difícil demostrar que otra función está realmente libre.
A medida que se acumulan más datos, el valor de sus resultados convergerá en un tamaño de efecto de cero, pero siempre habrá un valor positivo mayor que cero que tenga más poder estadístico que cero. Por lo tanto, es imposible tener plena confianza en que realmente existe una doble disociación dada.
En una nota diferente, Alphonso Caramazza ha dado una razón de principios para rechazar el uso de estudios grupales en neuropsicología cognitiva. Los estudios de pacientes con daño cerebral pueden tomar la forma de un estudio de caso único, en el que el comportamiento de un individuo se caracteriza y se usa como evidencia, o estudios grupales, en los que un grupo de pacientes que muestran el mismo déficit tienen su comportamiento caracterizado y promediado Para justificar la agrupación de un conjunto de datos de pacientes, el investigador debe saber que el grupo es homogéneo, que su comportamiento es equivalente en todas las formas teóricamente significativas.
En pacientes con daño cerebral, esto solo se puede lograr a posteriorimediante el análisis de los patrones de comportamiento de todos los individuos en el grupo. Por lo tanto, según Caramazza, cualquier estudio grupal es el equivalente de un conjunto de estudios de casos únicos o, en teoría, no está justificado.
Newcombe y Marshall señalaron que hay algunos casos (usan el síndrome de Geschwind como ejemplo) y que los estudios grupales aún podrían servir como una heurística útil en estudios neuropsicológicos cognitivos.
Grabaciones de unidades individuales
En neurociencia se entiende comúnmente que la información está codificada en el cerebro por los patrones de activación de las neuronas. Muchas de las preguntas filosóficas que rodean el código neural están relacionadas con preguntas sobre representación y cálculo que se analizan a continuación. Hay otras preguntas metodológicas que incluyen si las neuronas representan información a través de una tasa de disparo promedio o si hay información representada por la dinámica temporal.
Hay preguntas similares sobre si las neuronas representan información individualmente o como población.
Neurociencia computacional
Muchas de las controversias filosóficas que rodean la neurociencia computacional involucran el papel de la simulación y el modelado como explicación. Carl Craver ha sido especialmente vocal sobre tales interpretaciones. Jones y Love escribieron un artículo especialmente crítico dirigido al modelado conductual bayesiano que no restringía los parámetros de modelado por consideraciones psicológicas o neurológicas Eric Winsberg ha escrito sobre el papel del modelado y simulación por computadora en la ciencia en general, pero su caracterización es aplicable a la neurociencia computacional.
Computación y representación en el cerebro
La teoría computacional de la mente se ha generalizado en la neurociencia desde la revolución cognitiva en la década de 1960. Esta sección comenzará con una descripción histórica de la neurociencia computacional y luego discutirá varias teorías y controversias en competencia dentro del campo.
Resumen histórico
La neurociencia computacional comenzó en la década de 1930 y 1940 con dos grupos de investigadores. El primer grupo estaba formado por Alan Turing, Alonzo Church y John von Neumann, que trabajaban para desarrollar máquinas informáticas y los fundamentos matemáticos de la informática. Este trabajo culminó en el desarrollo teórico de las llamadas máquinas de Turing y la tesis Iglesia-Turing, que formalizó las matemáticas subyacentes a la teoría de la computabilidad.
El segundo grupo estaba formado por Warren McCulloch y Walter Pitts que estaban trabajando para desarrollar las primeras redes neuronales artificiales. McCulloch y Pitts fueron los primeros en plantear la hipótesis de que las neuronas podrían usarse para implementar un cálculo lógico que podría explicar la cognición.
Usaron sus neuronas de juguete para desarrollar puertas lógicas que pudieran hacer cálculos.Sin embargo, estos desarrollos no pudieron afianzarse en las ciencias psicológicas y la neurociencia hasta mediados de los años cincuenta y sesenta. El conductismo había dominado la psicología hasta la década de 1950, cuando los nuevos desarrollos en una variedad de campos volcaron la teoría conductista en favor de una teoría cognitiva.
Desde el comienzo de la revolución cognitiva, la teoría computacional desempeñó un papel importante en los desarrollos teóricos. El trabajo de Minsky y McCarthy en inteligencia artificial, las simulaciones por computadora de Newell y Simon, y la importación de Noam Chomsky de la teoría de la información a la lingüística dependían en gran medida de los supuestos computacionales.A principios de la década de 1960, Hilary Putnam estaba argumentando a favor del funcionalismo de la máquina en el que el cerebro instanciaba las máquinas de Turing.
En este punto, las teorías computacionales estaban firmemente fijadas en psicología y neurociencia. A mediados de la década de 1980, un grupo de investigadores comenzó a usar redes neuronales analógicas de alimentación multicapa que podían entrenarse para realizar una variedad de tareas. El trabajo de investigadores como Sejnowski, Rosenberg, Rumelhart y McClelland fueron etiquetados como conexionismo, y la disciplina ha continuado desde entonces.La mentalidad conexionista fue adoptada por Paul y Patricia Churchland, quienes luego desarrollaron su «semántica espacial estatal» utilizando conceptos de la teoría conexionista.
El conexionismo también fue condenado por investigadores como Fodor, Pylyshyn y Pinker. La tensión entre los conexionistas y los clasicistas todavía se está debatiendo hoy.
Representación
Una de las razones por las que las teorías computacionales son atractivas es que las computadoras tienen la capacidad de manipular representaciones para dar resultados significativos. Las computadoras digitales usan cadenas de 1s y 0s para representar el contenido como esta página de Wikipedia. La mayoría de los científicos cognitivos afirman que nuestros cerebros usan alguna forma de código de representación que se lleva en los patrones de activación de las neuronas.
Las cuentas computacionales parecen ofrecer una manera fácil de explicar cómo nuestros cerebros llevan y manipulan las percepciones, pensamientos, sentimientos y acciones que conforman nuestra experiencia cotidiana.Si bien la mayoría de los teóricos sostienen que la representación es una parte importante de la cognición, la naturaleza exacta de esa representación es muy debatida.
Los dos argumentos principales provienen de defensores de representaciones simbólicas y defensores de representaciones asociacionistas.
Fodor y Pinker han defendido famosos relatos de representación simbólicos. Representación simbólica significa que los objetos están representados por símbolos y se procesan a través de manipulaciones gobernadas por reglas que son una sensación para la estructura constitutiva. El hecho de que la representación simbólica sea sensible a la estructura de las representaciones es una parte importante de su atractivo.
Fodor propuso la hipótesis del lenguaje del pensamiento en la que las representaciones mentales se manipulan de la misma manera que el lenguaje se manipula sintácticamente para producir pensamiento. Según Fodor, la hipótesis del lenguaje del pensamiento explica la sistemática y la productividad observadas tanto en el lenguaje como en el pensamiento.
Las representaciones asociativistas se describen con mayor frecuencia con sistemas conexionistas. En los sistemas conexionistas, las representaciones se distribuyen a través de todos los nodos y pesos de conexión del sistema y, por lo tanto, se dice que son sub simbólicos.Vale la pena señalar que un sistema conexionista es capaz de implementar un sistema simbólico.
Hay varios aspectos importantes de las redes neuronales que sugieren que el procesamiento paralelo distribuido proporciona una mejor base para las funciones cognitivas que el procesamiento simbólico. En primer lugar, la inspiración para estos sistemas vino del cerebro mismo, lo que indica relevancia biológica.
En segundo lugar, estos sistemas son capaces de almacenar memoria direccionable por contenido, que es mucho más eficiente que las búsquedas de memoria en sistemas simbólicos. En tercer lugar, las redes neuronales son resistentes al daño, mientras que incluso un daño menor puede desactivar un sistema simbólico.
Por último, las restricciones suaves y la generalización al procesar estímulos novedosos permiten que las redes se comporten de manera más flexible que los sistemas simbólicos.
Churchlands describió la representación en un sistema conexionista en términos de espacio de estado. El contenido del sistema está representado por un vector n-dimensional donde n = el número de nodos en el sistema y la dirección del vector está determinada por el patrón de activación de los nodos. Fodor rechazó este método de representación alegando que dos sistemas conexionistas diferentes no podían tener el mismo contenido.
Un análisis matemático adicional del sistema conexionista alivió que los sistemas conexionistas que pudieran contener contenido similar pudieran mapearse gráficamente para revelar grupos de nodos que eran importantes para representar el contenido.Desafortunadamente para las Tierras de la Iglesia, la comparación de vectores de espacio de estado no era adecuada para este tipo de análisis.
Recientemente, Nicholas Shea ha ofrecido su propia cuenta del contenido dentro de los sistemas conexionistas que emplea los conceptos desarrollados a través del análisis de conglomerados.
Vistas sobre computación
Computacionalismo, una especie de funcionalismo filosofía de la mente, se ha comprometido a la posición de que el cerebro es una especie de ordenador, pero ¿qué significa ser un equipo? La definición de un cálculo debe ser lo suficientemente estrecha como para limitar el número de objetos que se pueden llamar computadoras.
Por ejemplo, puede parecer problemático tener una definición lo suficientemente amplia como para permitir que los estómagos y los sistemas climáticos participen en los cálculos. Sin embargo, también es necesario tener una definición lo suficientemente amplia como para permitir el cálculo de todas las variedades de sistemas computacionales.
Por ejemplo, si la definición de computación se limita a la manipulación sintáctica de representaciones simbólicas, entonces la mayoría de los sistemas conexionistas no podrían computar.Rick Grush distingue entre la computación como una herramienta para la simulación y la computación como una postura teórica en neurociencia cognitiva.
Para el primero, cualquier cosa que pueda modelarse computacionalmente cuenta como computación. En este último caso, el cerebro es una función informática que es distinta de los sistemas como los sistemas dinámicos de fluidos y las órbitas planetarias a este respecto. El desafío para cualquier definición computacional es mantener los dos sentidos distintos.
Alternativamente, algunos teóricos eligen aceptar una definición estrecha o amplia por razones teóricas. El pancomputacionalismo es la posición que se puede decir que todo computa. Piccinini ha criticado este punto de vista sobre la base de que tal definición hace que la computación sea trivial hasta el punto de que se le roba su valor explicativo.
La definición más simple de cálculos es que se puede decir que un sistema está computando cuando una descripción computacional se puede mapear en la descripción física. Esta es una definición extremadamente amplia de computación y termina respaldando una forma de pancomputacionalismo. Putnam y Searle, a quienes a menudo se les atribuye esta opinión, sostienen que el cálculo está relacionado con el observador.
En otras palabras, si desea ver un sistema como computación, puede decir que es computación. Piccinini señala que, desde este punto de vista, no solo todo es computación, sino que también todo es computación en un número indefinido de formas. Dado que es posible aplicar un número indefinido de descripciones computacionales a un sistema dado, el sistema termina computando un número indefinido de tareas.
La vista más común de la computación es la cuenta semántica de la computación. Los enfoques semánticos usan una noción similar de computación que los enfoques de mapeo con la restricción añadida de que el sistema debe manipular las representaciones con contenido semántico. Observe en la discusión anterior sobre la representación que tanto los sistemas conexionistas de Churchlands como los sistemas simbólicos de Fodor usan esta noción de computación.
De hecho, Fodor es famoso por decir «No hay cálculo sin representación». Los estados computacionales pueden individualizarse mediante una apelación externa al contenido en un sentido amplio (es decir, el objeto en el mundo externo) o mediante una apelación internalista al contenido del sentido estrecho (contenido definido por las propiedades del sistema).Para arreglar el contenido de la representación, a menudo es necesario apelar a la información contenida en el sistema.
Grush ofrece una crítica de la cuenta semántica.Señala que apela al contenido informativo de un sistema para demostrar la representación del sistema. Utiliza su taza de café como un ejemplo de un sistema que contiene información, como la conductancia del calor de la taza de café y el tiempo desde que se vertió el café, pero es demasiado mundano para computarlo en un sentido sólido.
Los computacionalistas semánticos intentan escapar de esta crítica apelando a la historia evolutiva del sistema. Esto se llama la cuenta biosemantic. Grush usa el ejemplo de sus pies, diciendo que según esta cuenta sus pies no estarían calculando la cantidad de comida que había comido porque su estructura no había sido seleccionada evolutivamente para ese propósito.
Grush responde al llamado a la biosemantica con un experimento mental. Imagine que un rayo golpea un pantano en alguna parte y crea una copia exacta de usted. Según el relato biosemantic, este pantano sería incapaz de computar porque no hay una historia evolutiva con la cual justificar la asignación de contenido representacional.
La idea de que para dos estructuras físicamente idénticas se puede decir que una es informática mientras que la otra no lo es, debería ser molesta para cualquier físico.
También hay cuentas sintácticas o estructurales para el cálculo. Estas cuentas no necesitan depender de la representación. Sin embargo, es posible utilizar tanto la estructura como la representación como restricciones en el mapeo computacional. Shagrir identifica a varios filósofos de la neurociencia que defienden relatos estructurales.
Según él, Fodor y Pylyshyn requieren algún tipo de restricción sintáctica en su teoría de la computación. Esto es consistente con su rechazo de los sistemas conexionistas por razones de sistemática. También identifica a Piccinini como un estructuralista que cita su artículo de 2008: «la generación de cadenas de salida de dígitos a partir de cadenas de entrada de dígitos de acuerdo con una regla general que depende de las propiedades de las cadenas y (posiblemente) del estado interno del sistema «.Aunque Piccinini indudablemente defiende puntos de vista estructuralistas en ese artículo, afirma que las explicaciones mecanicistas de la computación evitan la referencia a la sintaxis o la representación.
Es posible que Piccinini piense que existen diferencias entre las cuentas sintácticas y estructurales de la computación que Shagrir no respeta.
Desde su punto de vista del cálculo mecanicista, Piccinini afirma que los mecanismos funcionales procesan los vehículos de una manera sensible a las diferencias entre las diferentes partes del vehículo y, por lo tanto, se puede decir que computan genéricamente. Afirma que estos vehículos son independientes del medio, lo que significa que la función de mapeo será la misma independientemente de la implementación física.
Los sistemas de computación se pueden diferenciar en función de la estructura del vehículo y la perspectiva mecanicista puede explicar los errores en la computación.
La teoría de sistemas dinámicos se presenta como una alternativa a las explicaciones computacionales de la cognición. Estas teorías son firmemente anti-computacionales y anti-representacionales. Los sistemas dinámicos se definen como sistemas que cambian con el tiempo de acuerdo con una ecuación matemática.
La teoría de sistemas dinámicos afirma que la cognición humana es un modelo dinámico en el mismo sentido que los computacionalistas afirman que la mente humana es una computadora. Una objeción común dirigida a la teoría de sistemas dinámicos es que los sistemas dinámicos son computables y, por lo tanto, un subconjunto del computacionalismo.
Van Gelder se apresura a señalar que existe una gran diferencia entre ser una computadora y ser computable. Hacer que la definición de computación sea lo suficientemente amplia como para incorporar modelos dinámicos abarcaría efectivamente el pancomputacionalismo.
Lista de neurofilosoferos
Kathleen Akins
Nayef Al-Rodhan
William Bechtel
Patricia Churchland
Paul Churchland
Andy Clark
Carl F. Craver
Francis Crick
Torsten de Winkel
Daniel Dennett
Sam Harris
William Hirstein
Christof Koch
Humberto Maturana
Thomas Metzinger
Georg Northoff
Jesse Prinz
Heidi Ravven
Adina Roskies
Francisco Varela