Estadísticas intuitivas
Las estadísticas intuitivas, o estadísticas populares, se refieren al fenómeno cognitivo donde los organismos utilizan datos para hacer generalizaciones y predicciones sobre el mundo. Esto puede ser una pequeña cantidad de datos de muestra o instancias de capacitación, que a su vez contribuyen a inferencias inductivas sobre propiedades a nivel de población, datos futuros o ambos.
Las inferencias pueden implicar la revisión de hipótesis o creencias, a la luz de los datos probabilísticos que informan y motivan las predicciones futuras. La tendencia informal de los animales cognitivos a generar intuitivamente inferencias estadísticas, cuando se formaliza con ciertos axiomas de la teoría de la probabilidad, constituye la estadística como disciplina académica.
Debido a que esta capacidad puede acomodar una amplia gama de dominios informativos, el tema es igualmente amplio y se superpone sustancialmente con otros fenómenos cognitivos. De hecho, algunos han argumentado que «la cognición como estadístico intuitivo» es una metáfora complementaria adecuada para la metáfora informática de la cognición.
Otros apelan a una variedad de mecanismos estadísticos y probabilísticos detrás de la construcción de la teoría y la estructuración de categorías. La investigación en este dominio comúnmente se enfoca en generalizaciones relacionadas con el número, frecuencia relativa, riesgo y cualquier firma sistemática en capacidad inferencial que pueda tener un organismo (p.
Ej., Humanos o primates no humanos).
Antecedentes y teoría
Las inferencias intuitivas pueden implicar la generación de hipótesis a partir de datos sensoriales entrantes, como la categorización y la estructuración de conceptos. Los datos suelen ser probabilísticos y la incertidumbre es la regla, más que la excepción, en el aprendizaje, la percepción, el lenguaje y el pensamiento.
Recientemente, los investigadores han extraído ideas de la teoría de la probabilidad, la filosofía de la mente, la informática y la psicología para modelar la cognición como un sistema predictivo y generativo de representaciones probabilísticas, permitiendo que las estructuras de información admitan múltiples inferencias en una variedad de contextos y combinaciones.Este enfoque se ha llamado un lenguaje de pensamiento probabilístico porque construye representaciones probabilísticamente, a partir de conceptos preexistentes para predecir un estado posible y probable del mundo.
Probabilidad
Los estadísticos y los teóricos de la probabilidad han debatido durante mucho tiempo sobre el uso de diversas herramientas, suposiciones y problemas relacionados con la inferencia inductiva en particular. David Hume consideró el problema de la inducción, cuestionando los fundamentos lógicos de cómo y por qué las personas pueden llegar a conclusiones que se extienden más allá de las experiencias pasadas, tanto espacial como epistemológicamente.
Más recientemente, los teóricos han considerado el problema al enfatizar las técnicas para llegar de datos a hipótesis utilizando procedimientos formales independientes del contenido, o en contraste, al considerar herramientas informales dependientes del contenido para la inferencia inductiva.Las búsquedas de procedimientos formales han llevado a diferentes desarrollos en la inferencia estadística y la teoría de la probabilidad con diferentes supuestos, incluidas las estadísticas frecuentistas de los pescadores, la inferencia bayesiana y las estadísticas de Neyman-Pearson.
Gerd Gigerenzer y David Murray argumentan que la psicología del siglo XX como disciplina adoptó la inferencia probabilística como un conjunto unificado de ideas e ignoró las controversias entre los teóricos de la probabilidad. Afirman que de esta aceptación se desprende una visión normativa pero incorrecta de cómo los humanos «deberían pensar racionalmente».
Sin embargo, también sostienen que la metáfora estadística intuitiva de la cognición es prometedora, y debe considerar diferentes herramientas formales o heurísticas como especializadas para diferentes dominios de problemas, en lugar de un conjunto de herramientas sin contenido o contexto. Los teóricos de detección de señales y los modelos de detección de objetos, por ejemplo, a menudo usan un enfoque de Neyman-Pearson, mientras que las estadísticas frecuentistas de los pescadores podrían ayudar a las inferencias de causa-efecto.
Inferencia frecuente
La inferencia frecuente se enfoca en las proporciones o frecuencias relativas de ocurrencias para sacar conclusiones probabilísticas. Se define por su concepto estrechamente relacionado, la probabilidad frecuentista. Esto implica una visión de que la «probabilidad» no tiene sentido en ausencia de datos preexistentes, porque se entiende como una frecuencia relativa a la que se acercarían las muestras a largo plazo dadas grandes cantidades de datos.
Leda Cosmides y John Tooby han argumentado que no es posible derivar una probabilidad sin referencia a alguna frecuencia de resultados anteriores, y esto probablemente tenga orígenes evolutivos: Las probabilidades de un solo evento, afirman, no son observables porque los organismos evolucionaron para comprender intuitivamente y hacer inferencias estadísticas a partir de frecuencias de eventos anteriores, en lugar de «ver» la probabilidad como una propiedad intrínseca de un evento.
Inferencia bayesiana
La inferencia bayesiana generalmente enfatiza la probabilidad subjetiva de una hipótesis, que se calcula como una probabilidad posterior utilizando el Teorema de Bayes. Requiere un «punto de partida» llamado probabilidad previa, que ha sido polémico para algunos frecuentadores que afirman que se requieren datos de frecuencia para desarrollar una probabilidad previa, en contraste con tomar una probabilidad como una suposición a priori.
Los modelos bayesianos han sido muy populares entre los psicólogos, particularmente los teóricos del aprendizaje, porque parecen emular el proceso iterativo y predictivo mediante el cual las personas aprenden y desarrollan expectativas a partir de nuevas observaciones, al tiempo que otorgan el peso adecuado a las observaciones anteriores.
Andy Clark, un científico cognitivo y filósofo, recientemente escribió un argumento detallado en apoyo de la comprensión del cerebro como un motor bayesiano constructivo que es fundamentalmente orientado a la acción y predictivo, en lugar de pasivo o reactivo. Las líneas de evidencia más clásicas citadas entre los partidarios de la inferencia bayesiana incluyen el conservadurismo, o el fenómeno en el que las personas modifican las creencias anteriores hacia, pero no del todo, una conclusión implícita en observaciones anteriores.
Este patrón de comportamiento es similar al patrón de distribuciones de probabilidad posterior cuando un modelo bayesiano está condicionado a los datos, aunque los críticos argumentaron que esta evidencia había sido exagerada y carecía de rigor matemático.
Alison Gopnik más recientemente abordó el problema abogando por el uso de redes bayesianas o representaciones gráficas dirigidas de dependencias condicionales. En una red bayesiana, los pesos de borde son fortalezas de dependencia condicionales que se actualizan a la luz de los nuevos datos, y los nodos son variables observadas.
La representación gráfica en sí misma constituye un modelo, o hipótesis, sobre el mundo y está sujeta a cambios, dados los nuevos datos.
Teoría de la gestión de errores
La teoría de gestión de errores (EMT) es una aplicación de las estadísticas de Neyman-Pearson a la psicología cognitiva y evolutiva. Sostiene que los posibles costos y beneficios de aptitud física de los errores tipo I (falso positivo) y tipo II (falso negativo) son relevantes para las inferencias adaptativas racionales, hacia las cuales se espera que un organismo esté sesgado debido a la selección natural.
El EMT fue desarrollado originalmente por Martie Haselton y David Buss, con una investigación inicial centrada en su posible papel en el sesgo de sobrepercepción sexual en hombres y el sesgo de subpercepción sexual en mujeres.
Esto está estrechamente relacionado con un concepto llamado «principio del detector de humo» en la teoría evolutiva. Se define por la tendencia de las defensas inmunes, afectivas y conductuales a ser hipersensibles y exageradas, en lugar de insensibles o débilmente expresadas. Randolph Nesse sostiene que esto es una consecuencia de una estructura de pago típica en la detección de señales :
En un sistema que está invariablemente estructurado con un costo relativamente bajo de falsos positivos y un alto costo de falsos negativos, se espera que las defensas seleccionadas de manera natural se equivoquen del lado de hiperactividad en respuesta a posibles señales de amenaza. Esta idea general se ha aplicado a hipótesis sobre la aparente tendencia de los humanos a aplicar la agencia.a no agentes basados en señales inciertas o similares a agentes.
En particular, algunos afirman que es adaptable que una presa potencial asuma la agencia por defecto si se sospecha un poco, porque las posibles amenazas de depredadores generalmente implican falsos positivos baratos y falsos negativos letales.
Heurística y sesgos
Las heurísticas son reglas eficientes, o atajos computacionales, para producir un juicio o decisión. La metáfora intuitiva estadística de la cognición condujo a un cambio de enfoque para muchos psicólogos, lejos de los principios emocionales o motivacionales y hacia principios computacionales o inferenciales.
Los estudios empíricos que investigan estos principios han llevado a algunos a concluir que la cognición humana, por ejemplo, tiene errores de inferencia incorporados y sistemáticos, o sesgos cognitivos.. Como resultado, los psicólogos cognitivos han adoptado en gran medida la opinión de que los juicios intuitivos, las generalizaciones y los cálculos numéricos o probabilísticos están sistemáticamente sesgados.
El resultado es comúnmente un error de juicio, que incluye (pero no se limita a) falacias lógicas recurrentes (por ejemplo, la falacia de conjunción), innumeración y atajos motivados emocionalmente. Por lo tanto, los psicólogos sociales y cognitivos han considerado «paradójico» que los humanos puedan superar a las computadoras poderosas en tareas complejas, pero que sean profundamente defectuosos y propensos a errores en juicios simples y cotidianos.
Gran parte de esta investigación fue realizada por Amos Tversky y Daniel Kahneman como una expansión del trabajo de Herbert Simon sobre racionalidad limitada y satisfacción. Tversky y Kahneman argumentan que las personas están sesgadas regularmente en sus juicios bajo incertidumbre, porque en una compensación de precisión de velocidad a menudo confían en heurísticas rápidas e intuitivas con amplios márgenes de error en lugar de cálculos lentos de principios estadísticos.
Estos errores se denominan «ilusiones cognitivas» porque implican divergencias sistemáticas entre juicios y reglas normativas aceptadas en la predicción estadística.
Gigerenzer ha criticado esta opinión, argumentando que se basa en una suposición errónea de que existe una «teoría normativa» unificada de predicción estadística y probabilidad. Su argumento es que los psicólogos cognitivos descuidan la diversidad de ideas y suposiciones en la teoría de la probabilidad y, en algunos casos, su incompatibilidad mutua.
En consecuencia, Gigerenzer argumenta que muchas ilusiones cognitivas no son violaciones de la teoría de probabilidad per se, sino que implican algún tipo de confusión entre experimentadores entre probabilidades subjetivas con grados de confianza y frecuencias de resultados a largo plazo.Cosmides y Tooby afirman de manera similar que diferentes supuestos probabilísticos pueden ser más o menos normativos y racionales en diferentes tipos de situaciones, y que no existe un conjunto de herramientas estadísticas de propósito general para hacer inferencias en todos los dominios informativos.
En una revisión de varios experimentos, concluyen, en apoyo de Gigerenzer, que los experimentos previos de heurística y sesgo no representaron problemas de una manera ecológicamente válida, y que la representación de problemas en términos de frecuencias en lugar de probabilidades de un solo evento puede hacen que las ilusiones cognitivas desaparezcan en gran medida.
Tversky y Kahneman refutaron esta afirmación, argumentando que hacer desaparecer las ilusiones al manipularlas, ya sean cognitivas o visuales, no socava la ilusión descubierta inicialmente. También señalan que Gigerenzer ignora las ilusiones cognitivas resultantes de los datos de frecuencia, por ejemplo, correlaciones ilusorias como la mano caliente en el baloncesto.
Esto, señalan, es un ejemplo de una autocorrelación positiva ilusoria que no puede corregirse mediante datos convertidos a frecuencias naturales.
Para los adaptacionistas, la EMT se puede aplicar a la inferencia en cualquier dominio de información donde exista riesgo o incertidumbre, como evitar a los depredadores, detectar agencias o buscar comida. Los investigadores que defienden esta visión de racionalidad adaptativa argumentan que la teoría evolutiva arroja heurística y sesgos bajo una nueva luz, a saber, como atajos computacionalmente eficientes y ecológicamente racionales, o instancias de gestión adaptativa de errores.
Descuido de la tasa base
Las personas a menudo descuidan las tasas base, o hechos actuariales verdaderos sobre la probabilidad o la tasa de un fenómeno, y en cambio otorgan cantidades inapropiadas de peso a observaciones específicas. En un modelo de inferencia bayesiano, esto equivaldría a una infraponderación de la probabilidad previa, que se ha citado como evidencia contra la adecuación de un marco bayesiano normativo para modelar la cognición.
Las representaciones de frecuencia pueden resolver el abandono de la tasa base, y algunos consideran que el fenómeno es un artefacto experimental, es decir, un resultado de probabilidades o tasas que se representan como abstracciones matemáticas, que son difíciles de pensar intuitivamente.Gigerenzer especula una razón ecológica para esto, señalando que los individuos aprenden frecuencias a través de pruebas sucesivas en la naturaleza.
Tversky y Kahneman refutan la afirmación de Gigerenzer, señalando experimentos en los que los sujetos predijeron una enfermedad en función de la presencia frente a la ausencia de síntomas preespecificados en 250 ensayos, con retroalimentación después de cada ensayo. Señalan que todavía se encontró negligencia en la tasa base, a pesar de la formulación de frecuencia de los ensayos en el experimento.
Falacia de la conjunción
Otro ejemplo popular de una supuesta ilusión cognitiva es la falacia de conjunción, descrita en un experimento de Tversky y Kahneman conocido como el «problema de Linda». En este experimento, a los participantes se les presenta una breve descripción de una persona llamada Linda, que tiene 31 años, es soltera, inteligente, abierta y fue a una universidad donde se especializó en filosofía, estaba preocupada por la discriminación y la justicia social, y participó en protestas antinucleares.
Cuando se preguntó a los participantes si era más probable que Linda fuera (1) cajera de banco o (2) cajera de banco y feminista, el 85% respondió con la opción 2, aunque la opción 1 no puede ser menos probable que la opción 2. Llegaron a la conclusión de que esto era producto de una heurística de representatividad., o una tendencia a hacer inferencias probabilísticas basadas en similitudes de propiedad entre instancias de un concepto, en lugar de una inferencia estadísticamente estructurada.
Gigerenzer argumentó que la falacia de la conjunción se basa en una probabilidad de evento único y se disolvería bajo un enfoque frecuentista. Él y otros investigadores demuestran que las conclusiones de la falacia de la conjunción resultan del lenguaje ambiguo, en lugar de errores estadísticos robustos o ilusiones cognitivas.
En una versión alternativa del problema de Linda, a los participantes se les dice que 100 personas se ajustan a la descripción de Linda y se les pregunta cuántos son (1) cajeros bancarios y (2) cajeros bancarios y feministas. Experimentalmente, esta versión de la tarea parece eliminar o mitigar la falacia de la conjunción.
Modelos computacionales
Ha habido algunas dudas sobre cómo se puede entender la estructuración y generalización de conceptos en términos de arquitectura y procesos cerebrales. Esta pregunta se ve afectada por un debate vecino entre los teóricos sobre la naturaleza del pensamiento, específicamente entre los modelos conexionistas y el lenguaje del pensamiento.
La generalización y clasificación de conceptos se han modelado en una variedad de modelos conexionistas, o redes neuronales, específicamente en dominios como el aprendizaje de idiomas y la categorización. Algunos enfatizan las limitaciones de los modelos puramente conexionistas cuando se espera que generalicen instancias futuras después del entrenamiento en instancias anteriores.
Gary Marcus, por ejemplo, afirma que los datos de entrenamiento tendrían que ser completamente exhaustivos para que ocurran generalizaciones en los modelos conexionistas existentes, y que como resultado, no manejan bien las observaciones novedosas. Además, aboga por una perspectiva integracionista entre un lenguaje de pensamiento, que consiste en representaciones y operaciones de símbolos, y modelos conexionistas que retienen el procesamiento distribuido que probablemente utilizan las redes neuronales en el cerebro.
Evidencia en humanos
En la práctica, los humanos hacen generalizaciones conceptuales, lingüísticas y probabilísticas a partir de pequeñas cantidades de datos. Existe cierto debate sobre la utilidad de varias herramientas de inferencia estadística para comprender la mente, pero se acepta comúnmente que la mente humana es de alguna manera una máquina de predicción excepcionalmente adecuada, y esa acción Los procesos orientados que subyacen a este fenómeno, independientemente de lo que puedan implicar, están en el núcleo de la cognición.
Las inferencias probabilísticas y la generalización desempeñan papeles centrales en conceptos y categorías y aprendizaje de idiomas, y los estudios infantiles se utilizan comúnmente para comprender la trayectoria de desarrollo de los kits de herramientas estadísticas intuitivas de los humanos.
Estudios infantiles
Los psicólogos del desarrollo, como Jean Piaget, han argumentado tradicionalmente que los niños no desarrollan las capacidades cognitivas generales para la inferencia probabilística y la prueba de hipótesis hasta etapas concretas de desarrollo operacional (edad 7-11 años) y formal (edad 12 años-edad adulta), respectivamente.
Esto a veces se contrasta con una preponderancia creciente de evidencia empírica que sugiere que los humanos son generalizadores capaces en la infancia. Por ejemplo, los experimentos de tiempo de observación que utilizan los resultados esperados de las proporciones de pelotas de ping pong rojas y blancas descubrieron que los bebés de 8 meses parecen hacer inferencias sobre las características de la población de donde proviene la muestra, y viceversa cuando se les dan datos a nivel de población.
Otros experimentos también han respaldado una capacidad de inferencia probabilística con bebés de 6 y 11 meses, pero no en niños de 4,5 meses.
El paradigma de la bola de color en estos experimentos no distinguió las posibilidades de las inferencias de los bebés en función de la cantidad frente a la proporción, que se abordó en una investigación de seguimiento en la que los bebés de 12 meses parecían comprender proporciones, basando juicios probabilísticos, motivados por las preferencias.
Para los resultados más probables, en la evidencia inicial de las proporciones en sus opciones disponibles. Las críticas a la efectividad de las tareas de tiempo de observación permitieron a los bebés buscar objetos preferidos en tareas de probabilidad de muestra única, lo que respalda la idea de que los bebés pueden inferir probabilidades de eventos únicos cuando se les da un tamaño de muestra inicial pequeño o grande.Los investigadores involucrados en estos hallazgos han argumentado que los humanos poseen algún sistema inferencial estadísticamente estructurado durante las etapas preverbales de desarrollo y antes de la educación formal.
Sin embargo, está menos claro cómo y por qué se observa la generalización en los lactantes: podría extenderse directamente desde la detección y el almacenamiento de similitudes y diferencias en los datos entrantes o las representaciones de frecuencia. Por el contrario, podría ser producido por algo así como la inferencia bayesiana de propósito general, comenzando con una base de conocimiento que está condicionada de forma iterativa a los datos para actualizar las probabilidades o creencias subjetivas.
Esto vincula las preguntas sobre los juegos de herramientas estadísticas que podrían estar involucrados en el aprendizaje, y cómo se aplican específicamente al aprendizaje infantil y de la infancia.
Gopnik defiende la hipótesis de que el aprendizaje infantil y de la infancia son ejemplos de inferencia inductiva, un mecanismo de generalización para la generalización, que actúa sobre estructuras de información especializadas (» teorías «) en el cerebro. Desde este punto de vista, los bebés y los niños son esencialmente protocientíficos porque usan regularmente un tipo de método científico, desarrollan hipótesis, realizan experimentos a través del juego y actualizan modelos sobre el mundo en función de sus resultados.
Para Gopnik, este uso del pensamiento científico y la categorización en el desarrollo y la vida cotidiana puede formalizarse como modelos de inferencia bayesiana.Una aplicación de este punto de vista es la «hipótesis de muestreo», o el punto de vista de que la variación individual en las inferencias causales y probabilísticas de los niños es un artefacto del muestreo aleatorio de un conjunto diverso de hipótesis y generalizaciones flexibles basadas en el comportamiento y el contexto del muestreo.
Estos puntos de vista, particularmente aquellos que abogan por la actualización general bayesiana de teorías especializadas, se consideran sucesores de la teoría de Piaget en lugar de refutaciones generales porque mantienen su dominio general, al ver a los niños considerando aleatoriamente y de manera no sistemática una gama de modelos antes de seleccionar Una probable conclusión.
En contraste con la visión mecanicista de propósito general, algunos investigadores abogan por estructuras de información específicas de dominio y mecanismos inferenciales especializados de manera similar. Por ejemplo, mientras que los humanos no suelen sobresalir en los cálculos de probabilidad condicional, el uso de cálculos de probabilidad condicional es fundamental para analizar los sonidos del habla en sílabas comprensibles, una habilidad relativamente sencilla e intuitiva que emerge tan pronto como a los 8 meses.Los bebés también parecen ser buenos para rastrear no solo los estados espacio-temporales de los objetos, sino también para rastrear las propiedades de los objetos, y estos sistemas cognitivos parecen ser distintos en su desarrollo.
Esto se ha interpretado como un conjunto de herramientas de inferencia específicas del dominio, cada una de las cuales corresponde a tipos de información separados y tiene aplicaciones para el aprendizaje de conceptos.
Formación de conceptos
Los bebés usan similitudes y diferencias de forma para desarrollar conceptos relacionados con los objetos, y esto se basa en múltiples ensayos con múltiples patrones, exhibiendo algún tipo de propiedad común entre los ensayos. Los bebés parecen llegar a dominar esta habilidad en particular a los 12 meses, pero diferentes conceptos y propiedades emplean diferentes principios relevantes de la psicología de la Gestalt, muchos de los cuales pueden surgir en diferentes etapas de desarrollo.
Específicamente, la categorización infantil en tan solo 4.5 meses involucra procesos iterativos e interdependientes mediante los cuales los ejemplos (datos) y sus similitudes y diferencias son cruciales para trazar límites alrededor de las categorías.Estas reglas abstractas son estadísticas por naturaleza, porque pueden implicar coincidencias comunes de ciertas propiedades percibidas en instancias pasadas y facilitar inferencias sobre su estructura en instancias futuras.
Esta idea ha sido extrapolada por Douglas Hofstadter y Emmanuel Sander, quienes argumentan que debido a que la analogía es un proceso de inferencia que se basa en similitudes y diferencias entre las propiedades del concepto, la analogía y la categorización son fundamentalmente el mismo proceso utilizado para organizar conceptos a partir de datos entrantes
Aprendizaje de idiomas
Los bebés y los niños pequeños no solo son generalizadores capaces de la cantidad y proporción de rasgos, sino también de sistemas abstractos basados en reglas como el lenguaje y la música. Estas reglas pueden denominarse «reglas algebraicas» de estructura informativa abstracta y son representaciones de sistemas de reglas o gramáticas.
Para el lenguaje, los investigadores han defendido la creación de generalizaciones con inferencia bayesiana y detección de similitud como un caso especial de formación de conceptos. Los bebés parecen ser competentes en inferir reglas abstractas y estructurales a partir de flujos de sonidos lingüísticos producidos en sus entornos de desarrollo,y para generar predicciones más amplias basadas en esas reglas.
Por ejemplo, los bebés de 9 meses son capaces de actualizar sus expectativas de manera más rápida y dramática cuando las cadenas de sílabas repetidas contienen características sorprendentes, como fonemas raros. En general, los bebés preverbales parecen ser capaces de discriminar entre gramáticas con las que han sido entrenados con experiencia y gramáticas novedosas.
En las tareas de tiempo de observación de bebés de 7 meses, los bebés parecían prestar más atención a las estructuras gramaticales desconocidas que a las familiares,y en un estudio separado que utiliza cadenas de 3 sílabas, los bebés parecían tener expectativas generalizadas de manera similar basadas en la estructura silábica abstracta presentada anteriormente, lo que sugiere que utilizaron ocurrencias superficiales, o datos, para inferir una estructura abstracta más profunda.
Esto fue tomado para apoyar la visión de «hipótesis múltiples» por los investigadores involucrados.
Evidencia en animales no humanos
Loros grises
Múltiples estudios realizados por Irene Pepperberg y sus colegas sugirieron que los loros grises ( Psittacus erithacus ) tienen cierta capacidad para reconocer números o conceptos similares a los números, y parecen entender la ordinalidad y la cardinalidad de los números. Experimentos recientes también indicaron que, dada la capacitación en idiomas y la capacidad para hacer referencia a objetos reconocidos, también tienen cierta capacidad para hacer inferencias sobre probabilidades y proporciones de tipos de objetos ocultos.
Primates no humanos
Los experimentos encontraron que al razonar sobre las proporciones de alimentos preferidos frente a los no preferidos, los monos capuchinos podían hacer inferencias sobre las proporciones inferidas por datos muestreados secuencialmente. Los monos rhesus fueron igualmente capaces de usar datos probabilísticos y muestreados secuencialmente para hacer inferencias sobre resultados gratificantes, y la actividad neuronal en la corteza parietal parecía estar involucrada en el proceso de toma de decisiones cuando hacían inferencias.
En una serie de 7 experimentos usando una variedad de diferencias de frecuencia relativa entre pellets de plátano y zanahorias, orangutanes, bonobos, chimpancés y gorilasTambién parece guiar sus decisiones en función de las proporciones que favorecen los pellets de plátano después de que este se estableció como su alimento preferido.
Aplicaciones
Razonamiento en medicina
La investigación sobre el razonamiento en medicina, o el razonamiento clínico, generalmente se centra en los procesos cognitivos y / o los resultados de la toma de decisiones entre médicos y pacientes. Las consideraciones incluyen evaluaciones de riesgo, preferencias del paciente y conocimiento médico basado en evidencia.
En un nivel cognitivo, la inferencia clínica se basa en gran medida en la interacción entre abstracción, abducción, deducción e inducción. Las «teorías» intuitivas, o conocimiento en medicina, pueden entenderse como prototipos en espacios conceptuales, o alternativamente, como redes semánticas.Dichos modelos sirven como punto de partida para generalizaciones intuitivas a partir de un pequeño número de señales, lo que resulta en una compensación del médico entre el «arte y la ciencia» del juicio médico.
Esta compensación fue capturada en un programa artificialmente inteligente (AI) llamado MYCIN, que superó a los estudiantes de medicina, pero no a los médicos experimentados con una amplia práctica en el reconocimiento de síntomas. Algunos investigadores sostienen que, a pesar de esto, los médicos son propensos a sesgos sistemáticos o ilusiones cognitivas, a su juicio (por ejemplo, satisfacción de hacer diagnósticos prematuros, sesgo de confirmación cuando se sospecha que los diagnósticos son a priori )
Comunicación del riesgo del paciente
La alfabetización estadística y los juicios de riesgo se han descrito como problemáticos para la comunicación médico-paciente. Por ejemplo, los médicos inflan con frecuencia el riesgo percibido de no recibir tratamiento, alteran las percepciones de riesgo de los pacientes enmarcando estadísticas únicas positiva o negativamente (p.
Ej., Tasa de supervivencia del 97% versus tasa de mortalidad del 3%), y / o no comunican suficientemente «clases de referencia» de declaraciones de probabilidad a los pacientes.La clase de referencia es el objeto de un enunciado de probabilidad: si un psiquiatra dice, por ejemplo, «este medicamento puede generar un 30-50% de posibilidades de un problema sexual», es ambiguo si esto significa que el 30-50% de los pacientes desarrollará un problema sexual en algún momento, o si todos los pacientes tendrán problemas en el 30-50% de sus encuentros sexuales.
Tasas base en juicio clínico
En los estudios de abandono de la tasa base, los problemas dados a los participantes a menudo usan tasas base de prevalencia de la enfermedad. En estos experimentos, los médicos y los no médicos son igualmente susceptibles a la negligencia de la tasa base o los errores en el cálculo de la probabilidad condicional.
Aquí hay un ejemplo de un problema de encuesta empírica dado a médicos experimentados: supongamos que un cáncer hipotético tenía una prevalencia del 0.3% en la población, y la tasa de resultados positivos reales de una prueba de detección fue del 50% con una tasa de falsos positivos del 3%. Dado un paciente con un resultado positivo, ¿cuál es la probabilidad de que el paciente tenga cáncer? Cuando se les hizo esta pregunta, los médicos con un promedio de 14 años de experiencia en la práctica médica variaron en sus respuestas del 1 al 99%, y la mayoría de las respuestas fueron del 47% o 50%.
La respuesta correcta es 5%). Esta observación del abandono de la tasa de base clínica y el error de probabilidad condicional se ha replicado en múltiples estudios empíricos. Los juicios de los médicos en problemas similares, sin embargo, mejoraron sustancialmente cuando las tasas se reformularon como frecuencias naturales.
Referencias
Gigerenzer, Gerd; Murray, David J. (2015). La cognición como estadística intuitiva. Londres: Psychology Press. ISBN 9781138950221. OCLC 918941179.
Gopnik, Alison; Tenenbaum, Joshua B. (mayo de 2007). «Redes bayesianas, aprendizaje bayesiano y desarrollo cognitivo». Ciencia del desarrollo. 10(3): 281–287. doi:.1111 / j.-7687.2007.00584.x. ISSN 1363-755X. PMID 17444969.
Gopnik, Alison (agosto de 2011). «Theory Theory 2.0: modelos probabilísticos y desarrollo cognitivo». Perspectivas de desarrollo infantil. 5 (3): 161-163. doi : 10.1111 / j.-8606.2011.00179.x. ISSN 1750-8592.
Hofstadter, Douglas R.; Sander, Emmanuel (2012). Superficies y esencias: la analogía como combustible y fuego del pensamiento. Nueva York: Libros básicos. ISBN 9780465018475. OCLC 841172513.
Goodman, Dakota del Norte; Tenenbaum, JB; Gerstenberg, T. (15 de febrero de 2014). «Conceptos en un lenguaje de pensamiento probabilístico» (PDF). Archivado (PDF)del original el 27/04/2017. Consultado el 24 de julio de 2018.
Fuentes
- Url: www.worldcat.org
- Url: doi.org
- Url: pubmed.ncbi.nlm.nih.gov
- Url: web.mit.edu
- Url: web.archive.org