- 2016. március 24., 16:29
Egy időre lekapcsolja a Microsoft saját Tay nevű AI-ját, a beszélgetős robot ugyanis a legrosszabbakat tanulta meg.
Hirdetés


some text

Rasszizmus, összeesküvés-elméletek, szexista poénok – nagyjából ezeket szedte magára a Tay a Twitteren töltött idő alatt. A témák nagyjából a GamerGate, 9/11, Hitler, zsidók, Trump, Obama körben mozogtak, úgyhogy a Microsoftnál jobbnak látták, ha inkább aludni küldik a láthatóan túl könnyen befolyásolható mesterséges intelligenciát, akire gyorsan rárepültek a különböző trollok, pillanatok alatt a nem kívánt irányba húzva a megtanult szókincset és stílust.

A cég a Business Insidernek most azt nyilatkozta, hogy jelenleg „állítanak” az AI működésén, hogy kevésbé vad válaszokat adjon, ami valószínűleg annyit jelent, hogy a gépi tanulásért felelős algoritmusokat finomhangolják.

Címkék

Ezek is érdekelhetnek

2012. december 7., 12:00
2013. december 2., 09:00
2009. május 29., 08:00
Hozzászólások