Etiketen artxiboa: filosofía de la ciencia

Nazismoa eta holokaustoa ezagutzea funtsezkoa da egungo profesional medikoentzako
Nazismoaren eta holokaustoaren historia ezagutzea ezinbestekotzat jo du The Lancet-en medikuntzaren historiari buruzko batzordeak, gaur egungo ikasketa medikoak eta etikoak sendotzeko, eta profesionalek ikuspegi osoago bat izateko, medikuntzan zein ikerketan. Ondorio hori plazaratu du batzorde horrek bere lehen lanean.

Why Mathematical Proof Is a Social Compact
Number theorist Andrew Granville on what mathematics really is — and why objectivity is never quite within reach.

«No, no soy un robot»: GPT-4 fingió ser una persona ciega para saltarse un Captcha
GPT-4, el nuevo modelo de lenguaje de OpenAI, convenció a un humano para que hiciera un test antibots en su lugar. Lo contrató por Taskrabbit. Los investigadores advierten sobre el potencial de conductas de riesgo.

Adimen artifizialaren giza alborapen kognitiboak aztertu dituzte
Adimen artifizialeko algoritmoetan agertzen diren alborapen kognitiboen ebidentziak bildu eta aztertu dituzte RIEV aldizkarian, haien eragina ezagututa, neurri zuzentzaileak hartu ahal izateko.

Do no unconscious harm: Can ‘hidden’ prejudices in medicine be stamped out?
Researchers, health care providers, and patients are exploring ways to mitigate implicit bias

Se acerca la religión de las IAs
¿Son grandes imitadoras o realmente tienen consciencia? Esa pregunta sembrará dudas que algunos ya responden por fe

AI chatbots are coming to search engines – can you trust the results?
Google, Microsoft and Baidu are using tools like ChatGPT to turn internet search into a conversation. How will this change humanity’s relationship with machines?

Navegando los dilemas éticos de la investigación del ADN humano antiguo
La paleogenómica se ha expandido rápidamente en las dos últimas décadas, encendiendo un acalorado debate sobre la manipulación de los restos. ¿Quién da el consentimiento en nombre de participantes que ya no viven?

Las falacias del encantamiento con la inteligencia artificial de ChatGPT
Esta herramienta de la empresa OpenAI usa muchos textos diferentes para generar uno nuevo. Por ello, es fácil que recombine segmentos que conceptualmente son como el agua y el aceite y que cree una explicación con errores importantes. Además, sus fuentes de entrenamiento son opacas y no sabemos de dónde ha sacado la información que utiliza para explicarnos las ideas principales.

Prestigious AI meeting takes steps to improve ethics of research
For the first time, the organizers of NeurIPS required speakers to consider the societal impact of their work.