
Facebook geeft binnenkort de controle over de live video's die je op je nieuwsfeed ziet, over aan kunstmatige intelligentie, zo werd deze week onthuld, toen het sociale netwerk een kunstmatige intelligentie puffery campagne om zijn klanten te leren 'kunstmatige intelligentie is geen magie.'
Joaquin Candela, directeur toegepaste machine learning van het bedrijf, vertelde Reuters dat Zuckerberg en zijn cohorten het gebruik van AI willen opvoeren bij het monitoren van inhoud die op Facebook is gepost - AI die automatisch aanstootgevend materiaal zou markeren.
Dat is handig, zeker. Er is al een golf van tragische incidenten met zelfmoorden en Facebook Live , het live-uitzendplatform van het bedrijf, en AI zouden veel sneller en alwetend zijn in het markeren van die gevoelige inhoud voor verwijdering of censuur.
Candela vertelde Reuters dat de AI voor het monitoren van live video zich echter nog in de onderzoeksfase bevindt, omdat het op twee uitdagingen stuit. 'Ten eerste moet je algoritme voor computervisie snel zijn, en ik denk dat we daar kunnen komen, en de andere is dat je dingen op de juiste manier moet prioriteren, zodat een mens ernaar kijkt, een expert die ons beleid begrijpt, en haalt het naar beneden.'
Het proces vormt een contrast met de traditionele methoden van Facebook om mensen te gebruiken om inhoud te doorzoeken die door Facebook-gebruikers als ongepast is gemarkeerd, en vervolgens te vertrouwen op die menselijke werknemers om inhoud te toetsen aan het beleid van Facebook. Natuurlijk, deze methode heeft spectaculair gefaald in verschillende recente spraakmakende gevallen, maar zou kunstmatige intelligentie beter zijn? Volgens Candela zou de AI van het beleid 'een algoritme gebruiken dat naaktheid, geweld of andere dingen detecteert die niet in overeenstemming zijn met het [Facebook]-beleid.' Motherboard heeft Facebook om meer informatie gevraagd over zijn AI-plannen, maar heeft nog geen reactie ontvangen.
Maar om zelfs maar te leren hoe je censureerbare inhoud in video's kunt identificeren, moet Facebook zijn kunstmatige intelligentie leren door de acties van Facebook-gebruikers nauwkeuriger te volgen. Facebook heeft om meer informatie over gebruikers te verzamelen om de kunstmatige intelligentie zelf te trainen. Een fundamenteel onderdeel van 'diep leren' , het proces van machinaal leren waarbij algoritmen in wezen nabootsen hoe een brein werkt, vereist enorme databases met monsters, zodat het taken kan uitvoeren die mensen als vanzelfsprekend beschouwen, bijvoorbeeld het herkennen van de individuele kenmerken waaruit een vliegtuig bestaat, maar ook het herkennen van dat object als een geheel is een vliegtuig. Dit betekent dat elk woord dat je typt, elke foto die je bekijkt en elk bericht dat je leest, onder het vergrootglas kan liggen.
Lees verder: Dakota Pipeline-demonstranten claimen Facebook-gecensureerde video van massa-arrestatie
Kunstmatige intelligentie heeft de wereld veranderd. Zoals terecht opgemerkt door Facebook, heb je op een gemiddelde ochtend 'kunstmatige intelligentie (AI) meer dan een dozijn keer gebruikt - om wakker te worden, lokale weerberichten op te roepen, een cadeau te kopen, je huis te beveiligen, gewaarschuwd voor een aanstaande verkeersopstopping, en zelfs om een onbekend nummer te identificeren.'
Maar het terugkerende thema bij Facebook, zo lijkt het, is dat geven het moet duren . Kunstmatige intelligentie is misschien geen magie, maar Facebook heeft één ding gemeen met goochelaars: de vingervlugheid die nodig is om de ogen van het publiek af te leiden. Met nep nieuws mogelijk een hele verkiezing beïnvloeden, en bubbels filteren Omdat het miljoenen gebruikers afleidt, moet kunstmatige intelligentie de waarheid naar een ingewikkeld, rommelig internet brengen.
Ontvang elke dag zes van onze favoriete Motherboard-verhalen door je aan te melden voor onze nieuwsbrief .