Använd den här avancerade AI-textgeneratorn för att skriva berättelser, dikter, nyhetsartiklar och mer

även de mest avancerade chatbotsna kan inte hålla en anständig konversation, men AI-system blir definitivt bättre på att generera det skrivna ordet. En ny webbapp ger gott om bevis, så att vem som helst kan skriva in en textprompt som AI-programvaran automatiskt svarar på.

ange början på en färdig nyhetsartikel, och det kommer att avsluta det åt dig. Ställ en fråga (genom att formatera din inmatning så här: ”F: Vad ska jag göra idag?”), och det svarar gärna.

webbplatsen heter TalkToTransformer.com, och det är skapandet av den kanadensiska ingenjören Adam King. King gjorde platsen, men den underliggande tekniken kommer från forskningslaboratoriet OpenAI. Tidigare i år presenterade OpenAI sitt nya AI-språksystem, GPT-2, och TalkToTransformer är en slimmad, tillgänglig version av samma teknik, som endast har gjorts tillgänglig för utvalda forskare och journalister tidigare. (Namnet ”transformator” avser den typ av neuralt nätverk som används av GPT-2 och andra system.)

om du vill lära dig mer om AI-språkgenerering finns det inget bättre sätt att förstå dess enorma potential och allvarliga begränsningar än genom att leka med TalkToTransformer.

på plussidan är modellen otroligt flexibel. Det kan känna igen ett stort antal ingångar, från nyhetsartiklar och berättelser till sångtexter, dikter, recept, kod och HTML. Det kan till och med identifiera bekanta karaktärer från franchises som Harry Potter och Ringenes Herre.

samtidigt ser du snart att systemet på en grundläggande nivå inte förstår språket eller världen i stort. Texten den genererar har samstämmighet på ytnivå men ingen långsiktig struktur. När det skriver berättelser, till exempel, tecken visas och försvinner slumpmässigt, utan konsekvens i deras behov eller åtgärder. När det genererar dialog Driver konversationer mållöst från ämne till ämne. Om det blir mer än några svar, det verkar som lycka, inte skicklighet.

fortfarande, som The Verge förklarade i vår ursprungliga täckning av GPT-2, är detta system enormt imponerande. Kom ihåg: det här är en enda algoritm som har lärt sig att generera text genom att studera en enorm dataset skrapad från webben och andra källor. Det lärde sig genom att leta efter mönster i denna information, och resultatet är ett överraskande multitalenterat system.

det kan inte vara svårt att hitta luckor i GPT-2: s kunskap, men det är omöjligt att veta om du har utforskat gränserna för vad den kan göra.

You might also like

Lämna ett svar

Din e-postadress kommer inte publiceras.