create account

What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial? by mauromar

View this thread on: hive.blogpeakd.comecency.com
· @mauromar ·
$1.99
What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial?
<center>https://4.bp.blogspot.com/-OlrV-PAtEkQ/W3RkOJCBkaI/AAAAAAAADOg/gNZXo_eK3tMNOmIfsuvPzrRfNb3qFQwJwCLcBGAs/w1200-h630-p-k-no-nu/image1.gif<a href="https://ai.googleblog.com/2018/08/moving-beyond-translation-with.html">
Source</a></center>
In little more than a decade, artificial intelligence has left us all amazed with its feats, first demonstrating its amazing ability to calculate by beating the best chess players in the world to end up becoming the world champion of Go, a millennial strategic game that no longer It can be won through brute force and requires a kind of "intuition."

>En poco más de una década la inteligencia artificial nos ha dejado a todos alucinados con sus proezas, primero demostrando su asombrosa capacidad de cálculo batiendo a los mejores ajedrecistas del mundo para terminar convirtiéndose en campeona del mundo de Go, un juego estratégico milenario que ya no se puede ganar a base de fuerza bruta y requiere una especie de "intuición".

Later, with convolutional networks (CNN) and adversary networks (GAN), the AI showed us its ability to manipulate images by identifying all kinds of objects by their appearance, creating images of non-existent faces or generating fake news that they made us all hesitate until you know the solution.

>Mas tarde con las redes convolucionales(CNN) y las redes adversarias(GAN) la IA nos demostró su capacidad de manipulación de las imágenes identificando toda clase de objetos por su apariencia, creando imágenes de rostros inexistentes o generando noticias fake que a todos nos hicieron dudar hasta conocer la solución.

But when it comes to language things get complicated, if we want to translate a text from one language to another, for example, it is not enough to recognize the words and replace the words of one language with the other, in this case the order of the words is essential, It is not the same to say "Juan eats fish" as "fish eats Juan."

>Pero cuando se trata del lenguaje la cosa se complica, si queremos por ejemplo traducir un texto de un idioma a otro no basta con reconocer las palabras y sustituir las de un idioma por el otro, en este caso el orden de las palabras es esencial, no es lo mismo decir "Juan come pescado" que "pescado come Juan".

<center>https://hubert0527.github.io/COCO-GAN/images/model_training.png<a href="https://hubert0527.github.io/COCO-GAN/">
Source</a></center>
Much more complex even when it comes to translating paragraphs that, in addition, we have to remember in some way the gender and number of the words to make sense of the sentences, all this would be impossible to do with existing neural networks and that is why in 2017 In Google Labs, Transformers are born.

>Mucho más complejo aún cuando se trata de traducir párrafos que, además, hemos de recordar de alguna manera el genero y número de las palabras para dar sentido a las oraciones, todo esto sería imposible de hacer con las redes neuronales existentes y por eso en 2017 en los laboratorios de Google, nacen los transformers.

There are basically three characteristics that define transformers compared to other neural networks:

- ** Positional encodings **
Transformers assign each word a value with the position it occupies in the sentence, although at the beginning that information provides little information at the beginning as the Transformer analyzes sentences and their encodings to learn to process this information effectively.

- **Attention**
Although it is something much more complex, we can roughly say that the transformer "looks" at the weight of each word in the complete sentence and produces a kind of heat map before making the decision to translate the sentence.

>Básicamente existen tres características que definen a los transformes frente a otras redes neuronales:

>- **Codificaciones posicionales**
Los transformers asignan a cada palabra un valor con la posición que ocupa en la oración, si bien al principio ese dato aporta poca información al principio a medida que el transformer va analizando oraciones y sus codificaciones aprende a procesar esta información de forma eficaz.

>- **Atención**
Aunque es algo mucho más complejo podremos decir grosso modo que el transformer "mira" el peso de cada palabra en la oración completa y elabora una especie de mapa de calor antes de tomar la decisión de traducir la sentencia.

<center>https://miro.medium.com/max/1116/0*274WDwgRhJTajmiY.png<a href="https://towardsdatascience.com/transformers-explained-understand-the-model-behind-gpt-3-bert-and-t5-cdbf3fc8a40a">
Source</a></center>
- ** Self-Attention "**
Through this process, the system is able to deduce the definition of a word from the context based on the rest of the words in the phrase, a marathon runner does not translate the same or have the same meaning as a bookmaker, even though they are both runners. and at one point they sweat the same thing.

>- **Auto-Atención"**
Mediante este proceso el sistema es capaz de deducir por el contexto la definición de una palabra en función del resto de palabras de la frase, no se traduce igual ni tiene el mismo significado un corredor de maratón que un corredor de apuestas aunque los dos sean corredores y en un momento dado suden lo mismo.

These three characteristics are what make it possible for models like GPT-3 to be able to follow a conversation better than many humans or for DALL-E to be able to create an image from a text definition with an astonishing definition or that these systems be able to create even computer code.

>Estas tres características son las que hacen posible que modelos como GPT-3 sean capaces de seguir una conversación mejor que muchos humanos o que DALL-E sea capaz de crear una imagen a partir de una definición de texto con una definición pasmosa o que estos sistemas sean capaces de crear incluso código de ordenador.

More information/Más información
https://towardsdatascience.com/transformers-explained-understand-the-model-behind-gpt-3-bert-and-t5-cdbf3fc8a40a
https://hubert0527.github.io/COCO-GAN/
👍  , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
properties (23)
authormauromar
permlinkwhat-are-transformers-in-artificial-intelligence-que-son-los-transformers-en-inteligencia-artificial
categoryscience
json_metadata{"tags":["science","technology","spanish","ciencia","tecnologia","ia","ai","transformers"],"image":["https://4.bp.blogspot.com/-OlrV-PAtEkQ/W3RkOJCBkaI/AAAAAAAADOg/gNZXo_eK3tMNOmIfsuvPzrRfNb3qFQwJwCLcBGAs/w1200-h630-p-k-no-nu/image1.gif","https://hubert0527.github.io/COCO-GAN/images/model_training.png","https://miro.medium.com/max/1116/0*274WDwgRhJTajmiY.png"],"links":["https://ai.googleblog.com/2018/08/moving-beyond-translation-with.html"],"app":"hiveblog/0.1","format":"markdown"}
created2021-05-09 13:04:51
last_update2021-05-09 13:04:51
depth0
children3
last_payout2021-05-16 13:04:51
cashout_time1969-12-31 23:59:59
total_payout_value1.088 HBD
curator_payout_value0.904 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length6,025
author_reputation296,548,369,570,995
root_title"What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial?"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id103,590,942
net_rshares3,542,531,522,461
author_curate_reward""
vote details (54)
@elmundodexao ·
$0.12
<center><sup><h2>Hola @mauromar, Jajaja y yo estaba pensando que hablaba de otros transformers y con inteligencia artificial.
![Robot.jpg](https://images.hive.blog/DQmPqnnjpCfFFU9FHJJa9sHH9X42gvxtzBA7uJnYTCcaXRR/Robot.jpg)
</h2></sup></center>
👍  ,
properties (23)
authorelmundodexao
permlinkqswglu
categoryscience
json_metadata{"users":["mauromar"],"image":["https://images.hive.blog/DQmPqnnjpCfFFU9FHJJa9sHH9X42gvxtzBA7uJnYTCcaXRR/Robot.jpg"],"app":"hiveblog/0.1"}
created2021-05-10 16:02:33
last_update2021-05-10 16:02:33
depth1
children0
last_payout2021-05-17 16:02:33
cashout_time1969-12-31 23:59:59
total_payout_value0.058 HBD
curator_payout_value0.058 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length243
author_reputation52,508,564,661,796
root_title"What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial?"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id103,615,252
net_rshares245,667,460,764
author_curate_reward""
vote details (2)
@leynedayana ·
$0.12
Hola @mauromar, y yo creía que la IA habían desarrollado la lectura antes que todo lo demás.
👍  ,
properties (23)
authorleynedayana
permlinkqsv69l
categoryscience
json_metadata{"users":["mauromar"],"app":"hiveblog/0.1"}
created2021-05-09 23:21:45
last_update2021-05-09 23:21:45
depth1
children1
last_payout2021-05-16 23:21:45
cashout_time1969-12-31 23:59:59
total_payout_value0.060 HBD
curator_payout_value0.059 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length92
author_reputation1,063,892,253,234
root_title"What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial?"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id103,600,636
net_rshares249,745,596,058
author_curate_reward""
vote details (2)
@mauromar ·
Una cosa es leer y otra entender lo que se lee que es lo que están haciendo ahora, cosa que todavía le cuesta a mucha gente. ;-)
properties (22)
authormauromar
permlinkqswj9i
categoryscience
json_metadata{"app":"hiveblog/0.1"}
created2021-05-10 17:29:42
last_update2021-05-10 17:29:42
depth2
children0
last_payout2021-05-17 17:29:42
cashout_time1969-12-31 23:59:59
total_payout_value0.000 HBD
curator_payout_value0.000 HBD
pending_payout_value0.000 HBD
promoted0.000 HBD
body_length128
author_reputation296,548,369,570,995
root_title"What are transformers in Artificial Intelligence?/¿Qué son los transformers en Inteligencia Artificial?"
beneficiaries[]
max_accepted_payout1,000,000.000 HBD
percent_hbd10,000
post_id103,617,143
net_rshares0