Mediante una carta pública, les solicitaron a los laboratorios que tomen la medida durante ese tiempo; qué argumentos presentaron en el escrito - LA NACION.
La preocupante frase del creador de ChatGPT sobre el avance de la inteligencia artificial](/tecnologia/la-preocupante-frase-del-creador-de-chatgpt-sobre-el-avance-de-la-inteligencia-artificial-estamos-nid22032023/) Elon Musk y miles de expertos pidieron una “pausa” en los avances de la Inteligencia Artificial](/tecnologia/elon-musk-y-cientos-de-expertos-piden-una-pausa-en-la-inteligencia-artificial-nid29032023/) [Como las del Papa. La verdad detrás de la curiosa foto del Papa Francisco con la campera de la selección argentina](/tecnologia/la-verdad-detras-de-la-curiosa-foto-del-papa-francisco-con-la-campera-de-la-seleccion-argentina-nid26032023/) [Pioneros inesperados. El detrás de escena de una columna que cubrió los 30 años que cambiaron el mundo](/tecnologia/la-compu-el-detras-de-escena-de-una-columna-que-cubrio-los-30-anos-que-cambiaron-el-mundo-nid25032023/) [Qué muestran las primeras pruebas. El verdadero significado del emoji de la cara sonriente con ojos de estrella](/tecnologia/whatsapp-el-verdadero-significado-del-emoji-de-la-cara-sonriente-con-ojos-de-estrella-nid14032023/) [Como las del Papa. En la misma línea, sostuvieron: “Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. “Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes, con capacidades emergentes”, argumentaron. [riesgos que puedan provocar en la sociedad y humanidad, puesto que consideran no tiene ni planificación, ni gestión](https://www.lanacion.com.ar/agencias/steve-wozniak-y-elon-musk-respaldan-una-peticion-para-detener-temporalmente-los-grandes-experimentos-nid29032023/). [el sitio Future of life ](https://futureoflife.org/)que se tituló Carta abierta FLI: Pausar los experimentos gigantes de la IA. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA entraron en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, sumaron. Uno de los nombres destacados que figura en la lista de los que apoyó la medida fue
Reclamaron frenar por seis meses las investigaciones en el sector hasta que haya un marco legal que pueda evitar posibles consecuencias.
Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un "verano de IA" en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. [respecto a la inteligencia general artificial](https://openai.com/blog/planning-for-agi-and-beyond) establece que "en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos". [4] Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes. La humanidad puede disfrutar de un futuro floreciente con la IA. Ese tipo de advertencias son válidas: una tiene que ver con la pérdida de los trabajos, una preocupación genuina que se menciona en la carta", señala Blanco. “El llamado ‘riesgo existencial’ que surge de la posibilidad de auto-reproducción y autonomización de las inteligencias artificiales no tiene hoy por hoy ningún sustento", advierte Blanco. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Son mediaciones nuevas y hay que aprender a lidiar con ellas: es lo que pasó con Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Lo dijo en relación a los usos que pueda tener para "desinformación a gran escala o ciberataques"." “ChatGPT es un ejemplo de programa capaz de sostener diálogos diversos en lenguaje natural.
En una carta abierta, miles de personalidades reclamaron suspender por al menos seis meses los experimentos gigantes que "ni sus creadores pueden entend...
"En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?¿Debemos arriesgarnos a perder el control de nuestra civilización? Este miércoles Elon Musk, uno de los fundadores de OpenAI, y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que [ChatGPT 4](https://www.pagina12.com.ar/530891-la-escritura-digital-en-tiempos-de-inteligencias-artificiale) por posibles “grandes riesgos para la humanidad”. En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido Pero Altman no es el único que se mostró preocupado. [Inteligencia Artificial](https://www.pagina12.com.ar/530594-inteligencia-artificial-muerte-o-nueva-vida-del-arte) (IA) asusta incluso a sus propios creadores.
En una carta abierta dicen que la dinámica de carrera actual en IA es peligrosa y pide la creación de reguladores independientes.
¿Debemos arriesgarnos a perder el control de nuestra civilización? "¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? - Instituciones capaces de hacer frente a la "dramática perturbación económica y política (especialmente para la democracia) que causará la IA"
Un gran grupo de especialistas pidieron frenar la evolución de esta tecnología que es furor y aseguraron que es necesario "manejar los riesgos" que implica ...
Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados", concluye la carta. "La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. [ChatGPT](/tools/redirect.php?t=3&i=782083&s=c78b038d8b73f16be619679c0310713f) es la tecnología del momento utilizada para los más diversos objetivos, pero un grupo de más de mil académicos, líderes de empresas y especialistas entre los que resalta el creador de Tesla y dueño de Twitter, [Elon Musk](/tools/redirect.php?t=3&i=781804&s=5a417397dc7ca05e087375c66f3ce91b), aseguraron que puede traer un "riesgo para la sociedad y la humanidad".
El creador del chat dijo tener "un poco de miedo" por la "desinformación a gran escala o ciberataques" que pueden generarse a partir de los experimentos con ...
Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un "verano de IA" en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. [4] Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes. La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que "en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos". Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación [1] y reconocido por los principales laboratorios de IA.
Hacemos un llamado a laboratorios de IA para que pausen ya, al menos por 6 meses, el entrenamiento de sistemas de IA más potentes que GPT-4, dijo Elon Musk.
(...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? “¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? Y recientemente, Altman declaró en ABCNews: “La empresa necesita tiempo para adaptarse”.