Grandes diferencias entre la conducción autónoma completa, el aprendizaje automático y nuestros cerebros - World Energy Trade

Grandes diferencias entre la conducción autónoma completa, el aprendizaje automático y nuestros cerebros

Las limitaciones del aprendizaje automático contrastan con su eficiencia

Las limitaciones del aprendizaje automático contrastan con su eficiencia

Movilidad

El Aprendizaje Automático y la conducción autónoma pueden parecer que ganan terreno al emular las facultades del cerebro humano, pero una óptica a sus principios de funcionamiento revela sus límites actuales.

Es tentador ver sistemas como la versión beta de Full Self Driving (FSD) de Tesla como un niño que aprende haciendo mientras supervisamos y mantenemos las cosas seguras . Con el tiempo, pensamos, el "niño" crecerá y será como nosotros, y luego tal vez incluso sea mejor conduciendo que los humanos. Pero después de estudiar más los conceptos básicos, está claro que esto no es lo que hace el aprendizaje automático.

Números vs Ideas

El objetivo del aprendizaje automático (y la inteligencia artificial en general) es usar máquinas que solo procesan números (computadoras) y hacer que procesen ideas.

Si bien muchos problemas y juegos del mundo real, como el ajedrez, pueden reducirse a ecuaciones y luego alimentarse a través de computadoras, algo tan simple como "¿Es eso una señal de alto o una señal de ceder el paso?" no se pueden reducir fácilmente a las matemáticas. Todas las diferentes condiciones de iluminación, ángulos de visión, tamaños, desgaste, plantas que crecen parcialmente al frente y muchas otras cosas introducen incertidumbre. Esto requeriría un número imposible de reglas del tipo "si, entonces" para que la programación de computadoras normal pueda hacer frente. Tendría que programar para casi todos los escenarios y aún tendría lagunas en lo que podría hacer el software lento e hinchado.

Este enfoque se probó en la década de 1980. Muchos problemas complejos se pueden dividir en muchas reglas pequeñas, que se pueden programar. Si programa suficiente información y reglas en un sistema informático, puede crear un "sistema experto" que puede ayudar a un no experto a tomar decisiones como lo haría un experto. El problema es que el tiempo de los expertos humanos es valioso y conseguir que trabajen con los desarrolladores es caro. También hubo mucha resistencia por parte de expertos altamente pagados a la creación de computadoras que potencialmente los reemplazarían, y esa resistencia solo podría superarse pagándoles aún más.

Incluso cuando terminaron, los paquetes de software no pudieron resolver todos los problemas que los expertos podrían resolver, por lo que ahora paga dos veces: una vez para que los expertos ayuden a construir el sistema, y ​​otra vez cuando el sistema se queda corto.

El aprendizaje automático, por otro lado, tiene como objetivo no necesitar profesores expertos. En lugar de usar reglas definidas agregadas manualmente al programa por humanos, el aprendizaje automático usa información básica proporcionada a través de datos de ejemplo para ajustarse a los resultados "correctos" de los datos de ejemplo. Dicho de manera más simple, le da los datos de entrada y los resultados deseados, y encuentra formas de asegurarse de que hace cálculos dentro de sí mismo para hacerlo bien. Entonces, en teoría, cuando ingrese nuevos datos, dará los resultados correctos.

Un problema es que el aprendizaje automático es tan bueno como los datos de ejemplo que obtiene. Amazon descubrió esto por las malas cuando intentó automatizar parte del proceso de contratación. Después de alimentar a sus computadoras con 10 años de currículums y que terminaron siendo contratados, el sistema de aprendizaje automático estaba listo para revisar nuevos currículums y hacer recomendaciones de contratación, pero Amazon descubrió rápidamente que el programa estaba sesgado contra las mujeres. Si bien el personal de recursos humanos de Amazon probablemente no discriminaba conscientemente a las mujeres, las computadoras ajustaron el programa para adaptarse a las prácticas de contratación anteriores y, con ello, un sesgo en contra de la contratación de mujeres.

Esto sucede porque las redes neuronales artificiales en realidad no aprenden nada . Calculan muchísimas probabilidades y luego introducen esas probabilidades en otras partes de la red que calculan más probabilidades. Los pesos del sistema complejo (la importancia de cada probabilidad) se ajustan hasta que las entradas dan las salidas correctas la mayor parte del tiempo. La red no tiene conciencia, experiencia ni conciencia.

Los datos de ejemplo enriquecidos pueden dar buenos resultados, pero lo único que la red neuronal artificial "considera" es si el resultado se ajusta a los datos de ejemplo para los que se configuró.

Pensamiento humano

Si bien la toma de decisiones humana utiliza algo como datos de ejemplo (nuestra experiencia y capacitación pasadas), hay mucho más sucediendo bajo el capó.  Buscamos patrones que coincidan no solo con nuestra experiencia pasada, sino también con información nueva que acabamos de aprender, información de nuestra cultura y cualquier religión con la que nos hubiéramos criado, y somos capaces de usar la imaginación para combinar estas diferentes cosas antes de actuar. El coronel de la Fuerza Aérea de los Estados Unidos, John Boyd, puso todo esto en su famoso "OODA Loop", y es un bucle porque es un proceso que ocurre una y otra vez.

Audi vehiculo formula E el e tron fe07 grafica 9843     Fig 1 .-  Materias primas críticas utilizadas en diferentes tecnologías en la Unión Europea en 2030 y 2050

También somos capaces de tomar buenas decisiones rápidamente con información limitada. Utilizando lo que Malcolm Gladwell llama "rebanada fina" en Blink , las personas han demostrado una capacidad para tomar mejores decisiones cuando se apresuran que a veces después de una cuidadosa consideración. Nuestra capacidad para identificar rápidamente información relevante, a veces de manera inconsciente, nos lleva a tener "instintos" o "tengo un mal presentimiento sobre esto".

También tenemos Teoría de la Mente. Como seres sociales, saber lo que probablemente piensen otras personas es extremadamente importante. Tomamos decisiones basadas no solo en lo que piensan los demás, sino en lo que pensarán si actuamos de cierta manera. También pensamos en lo que otras personas creen que estamos pensando, o en lo que otras personas piensan que los demás están pensando. Incluso consideramos lo que otras personas piensan que nosotros estamos pensando que ellos piensan y lo que creemos que piensan al respecto. Es complejo, pero nos resulta natural porque la cooperación, y a veces el engaño, es importante para nuestra supervivencia.

Por otro lado, no somos perfectos. Los prejuicios, la mala información cultural, los trastornos mentales, la adrenalina y el engaño intencional pueden estropear nuestra capacidad para tomar decisiones.

¿Cómo se relaciona esto con los vehículos autónomos?

En el caso de los vehículos autónomos, le da al software imágenes de bordillos y carreteras, y se ajusta para clasificar los bordillos y las carreteras correctamente, de modo que pueda identificar dónde conducir y dónde no conducir (entre muchas otras cosas). La red no piensa en lo que otros conductores están pensando (teoría de la mente), ni piensa en lo que otros conductores piensan que podrían estar pensando. Está bien rebasar lentamente a otro conductor en el carril rápido, pero puede que no sea correcto si una fila de autos comienza a atascarse detrás de nosotros. Entendemos que otros pueden frustrarse y enojarse y, a menudo, ajustamos nuestro comportamiento para evitar conflictos. El software no tiene "corazonadas". No piensa en engañar a los sistemas de inteligencia artificial de otros vehículos. No entiende las señales de que el conductor de otro automóvil está enojado y se tambalea hacia la furia del camino.

Los autos autónomos no miran en el espejo las luces rojas y azules parpadeantes y se preguntan si podrían representar a un policía falso. Simplemente se detiene según lo exige la ley y no piensa en llamar al 911 para verificar primero que el coche de policía de aspecto extraño es real.

Algunas de las respuestas humanas correctas a estas situaciones pueden estar en los datos de entrenamiento para el mimetismo, pero otras no.

Por otro lado, la máquina nunca se cansa. Nunca se emborracha. No tiene días malos en la oficina, rupturas dolorosas o rabia al volante. Nunca revisa las redes sociales mientras conduce, y no hace llamadas telefónicas que distraen ni envía mensajes de texto.

¿Qué sistema será más seguro a largo plazo? todo se reduce a si una máquina que es limitada pero hace lo que hace consistentemente es más segura que los humanos menos limitados pero imperfectos.

Noticia tomada de: Clean Technica / Traducción libre del inglés por WorldEnergyTrade.com

 

 

 

 

No pierdas la oportunidad de leer este reportaje: 

Vehiculos Electrico Hidrogeno Foto Ref

Te puede interesar:

Si eres seguidor de World Energy Trade hoy puedes resultarnos más útil que nunca. La emergencia del coronavirus ha ocasionado un lógico desplome sin precedentes de la publicidad, nuestro único sustento económico para poder informar.

Necesitamos a todos y cada uno de nuestros trabajadores y colaboradores que, cada día, están demostrando su valía en un entorno de trabajo complicado por las restricciones que impone el virus. Jornadas laborales interminables y medios tecnológicos no habituales hacen aún más difícil y costosa nuestra labor. Con la publicidad en crisis, el lector de World Energy Trade puede ser un asidero de enorme importancia.

Danos tu apoyo aportando lo que quieras.

QUIERO COLABORAR

No pierdas la oportunidad de leer este reportaje:

Vehiculos Electrico Hidrogeno Foto Ref