Fakta, teori & skepsis ⇒ CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Moderatorer: Asbjørn, Mod Fakta og, mod_spøkeguiden
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560316 CHATGTP er FARLIG ; Anklager falskt om sexovergrep
CHATGPT ANKLAGER LOVPROFESSOR FOR SEKSUELLE OVERTREDELSER
Ingen fortjener dette.
ChatGPT kommer med noen alvorlige påstander.
Kilde :https://futurism.com/the-byte/chatgpt-law-professor-false-accusation
I en lederartikkel for USA Today skrev jusprofessor Jonathan Turley ved George Washington University at han ble overrasket over å høre fra en kollega som hadde forsket på ChatGPT at den feilaktig hadde anklaget ham for å plukke på studenter.
Som Turley skrev, ba kollegaen, UCLAs Eugene Volokh, chatboten om å beskrive skandaler som involverer amerikanske jusprofessorer som ble anklaget for seksuell trakassering og å sitere mediekilder. Den forpliktet, liksom: den navnga navn og fant opp kilder, med en av disse "kildene" som en falsk Washington Post-artikkel fra 2018 som den feilaktig hevdet at Turley hadde seksuelle overgrep mot studenter under en tur til Alaska.
"Det var en overraskelse for meg siden jeg aldri har reist til Alaska med studenter, The Post publiserte aldri en slik artikkel, og jeg har aldri blitt anklaget for seksuell trakassering eller overgrep av noen," skrev jusprofessoren fra GW.
I et intervju for en faktisk WaPo-artikkel sa Turley at hele saken fikk det til å gå "kaldt nedetter ryggen"
- En påstand av denne typen er utrolig skadelig, sa han til avisen.
Bare kritikk
En konservativ mediekommentator, Turley sa at selv om han har blitt vant til drapstrusler og folk som prøver å få ham sparket, var denne situasjonen annerledes.
"AI lover å utvide slike overgrep eksponentielt," skrev han, og la merke til at kritikere som ofte løper med alt som blir presentert for dem, lett kan bruke denne typen virkelig-klingende sitater for å nedverdige folk de er uenige med.
Korta på bordet:
Turleys svært offentlige meninger gir faktisk kritikere mye å jobbe med. Han har løyet om abort, sitert høyreekstreme kommentator Ben Shapiro i sitt forsvar for transfobi, og antydet at et 10 år gammelt voldtektsoffer løy.
Ingenting av det gjør ham imidlertid verdig til falske anklager, som sammen med å være usanne også skader troverdigheten til de mange, mange menneskene som har lidd under overgrep og trakassering.
Rett etter at Turleys leder kom ut (og like før hans IRL-intervju med WaPo falt), brøt nyheten om at en australsk ordfører forberedte verdens første søksmål noensinne mot OpenAI for ærekrenkende ting som han sier ChatGPT hadde spydd ut om ham - et signal til selskapet som, om ikke annet, trenger å få tak i teknologien sin.
Falske anklager, uavhengig av hvem de lobbyes mot, er utvetydig dårlige – og hvis ChatGPT skal, som alle indikatorer antyder, bli en permanent bærebjelke i samfunnet vårt, må det også holdes ansvarlig på den fronten.
Man kan ikke lengre stole på noe, og spesielt ikke CHATGTP :
Studenter ble lurt – bestilte bøker som ikke finnes
Universitetsbiblioteket får flere bestillinger av bøker som ikke finnes. Årsaken er skriveroboten ChatGPT, som dikter opp forfattere.
https://www.nrk.no/sorlandet/studenter- ... 1.16300521
Kilde :https://futurism.com/the-byte/chatgpt-law-professor-false-accusation
Ingen fortjener dette.
ChatGPT kommer med noen alvorlige påstander.
Kilde :https://futurism.com/the-byte/chatgpt-law-professor-false-accusation
I en lederartikkel for USA Today skrev jusprofessor Jonathan Turley ved George Washington University at han ble overrasket over å høre fra en kollega som hadde forsket på ChatGPT at den feilaktig hadde anklaget ham for å plukke på studenter.
Som Turley skrev, ba kollegaen, UCLAs Eugene Volokh, chatboten om å beskrive skandaler som involverer amerikanske jusprofessorer som ble anklaget for seksuell trakassering og å sitere mediekilder. Den forpliktet, liksom: den navnga navn og fant opp kilder, med en av disse "kildene" som en falsk Washington Post-artikkel fra 2018 som den feilaktig hevdet at Turley hadde seksuelle overgrep mot studenter under en tur til Alaska.
"Det var en overraskelse for meg siden jeg aldri har reist til Alaska med studenter, The Post publiserte aldri en slik artikkel, og jeg har aldri blitt anklaget for seksuell trakassering eller overgrep av noen," skrev jusprofessoren fra GW.
I et intervju for en faktisk WaPo-artikkel sa Turley at hele saken fikk det til å gå "kaldt nedetter ryggen"
- En påstand av denne typen er utrolig skadelig, sa han til avisen.
Bare kritikk
En konservativ mediekommentator, Turley sa at selv om han har blitt vant til drapstrusler og folk som prøver å få ham sparket, var denne situasjonen annerledes.
"AI lover å utvide slike overgrep eksponentielt," skrev han, og la merke til at kritikere som ofte løper med alt som blir presentert for dem, lett kan bruke denne typen virkelig-klingende sitater for å nedverdige folk de er uenige med.
Korta på bordet:
Turleys svært offentlige meninger gir faktisk kritikere mye å jobbe med. Han har løyet om abort, sitert høyreekstreme kommentator Ben Shapiro i sitt forsvar for transfobi, og antydet at et 10 år gammelt voldtektsoffer løy.
Ingenting av det gjør ham imidlertid verdig til falske anklager, som sammen med å være usanne også skader troverdigheten til de mange, mange menneskene som har lidd under overgrep og trakassering.
Rett etter at Turleys leder kom ut (og like før hans IRL-intervju med WaPo falt), brøt nyheten om at en australsk ordfører forberedte verdens første søksmål noensinne mot OpenAI for ærekrenkende ting som han sier ChatGPT hadde spydd ut om ham - et signal til selskapet som, om ikke annet, trenger å få tak i teknologien sin.
Falske anklager, uavhengig av hvem de lobbyes mot, er utvetydig dårlige – og hvis ChatGPT skal, som alle indikatorer antyder, bli en permanent bærebjelke i samfunnet vårt, må det også holdes ansvarlig på den fronten.
Man kan ikke lengre stole på noe, og spesielt ikke CHATGTP :
Studenter ble lurt – bestilte bøker som ikke finnes
Universitetsbiblioteket får flere bestillinger av bøker som ikke finnes. Årsaken er skriveroboten ChatGPT, som dikter opp forfattere.
https://www.nrk.no/sorlandet/studenter- ... 1.16300521
Kilde :https://futurism.com/the-byte/chatgpt-law-professor-false-accusation
Antall ord: 500
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560317 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Snapchat har lansert KI-venn.
https://www.aftenposten.no/kultur/i/wA4 ... nt-med-ham
Vi har ingen kontroll med hvordan de samler data, hva den finner på selv, osv.
Vel liker jeg data og dingser, men AI er farlig, i og med at de blandaer fakta og fantasi.
Selv opplevde jeg å ha vært en av toppfigurene i FFO, for 13-14 år siden, tror jeg det var. Den gang ante jeg ikke engang at det forbundet eksisterte. ( er i forbundsstyret der nå, men det er ikke det samme som at jeg var det for 13-14 år sida.)
Og siden vi ikke vet hvem som står bak, ( dvs bakmenn i firma, som ikke vi vet hvem er), så ...
https://www.aftenposten.no/kultur/i/wA4 ... nt-med-ham
De AI appene er skumle, som vi vet,Fikk du med deg den robotlignende figuren «My Ai», som dukket opp i toppen av feeden på Snapchat fredag kveld?
Snapchat meldte om at KI-tjenesten var tilgjengelig for betalende brukere i slutten av februar. «My Ai» er en samtalerobot bygget med OpenAIs GPT-teknologi. Nå kan det se ut som at gratisbrukere i Norge har fått den også.
Vi har ingen kontroll med hvordan de samler data, hva den finner på selv, osv.
Vel liker jeg data og dingser, men AI er farlig, i og med at de blandaer fakta og fantasi.
Selv opplevde jeg å ha vært en av toppfigurene i FFO, for 13-14 år siden, tror jeg det var. Den gang ante jeg ikke engang at det forbundet eksisterte. ( er i forbundsstyret der nå, men det er ikke det samme som at jeg var det for 13-14 år sida.)
Og siden vi ikke vet hvem som står bak, ( dvs bakmenn i firma, som ikke vi vet hvem er), så ...
Antall ord: 189
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560318 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Angående CHATGTP :
Den finner endel informasjon, men er også fantasifull, se denne historien da jeg testet ut CHATGTP den 14 januar på kvelden :
Iflg CHATGTP er jeg både advokat, tidligere stortingspolitiker for Arbeiderpartiet, og i tidligere toppledelse i FFO, samt andre organisasjoner. Ikke at jeg ikke vil opp og frem, men dette er å ta ting helt ut av tomme lufta :
Denne linken viser at jeg IKKE har vært på stortinget, for noe parti :
https://www.stortinget.no/no/Representa ... rid=%C3%85
Og angående det å være advokat : Direkte søk viser : 0 resultat på meg som advokat
Høyreklikk på bildene, og åpne i ny fane, så ser du bildene i større og mer lesbar stand.
Har vært nødt til å fjerne noen detaljer, av hensyn til personvern.
Dette bildet viser et eksempel som faktisk viser mer korrekte data :
Her er info om FFO, som tildels ser rett ut ;
Her har jeg søkt på for og etternavnet mitt, og svaret forundret meg :
Jeg tok derfor en sjekk til, denne gangen hadde jeg også med mellomnavnet mitt ( som jeg sjelden bruker) :
AP Politiker ? Blank fantasi.
Tidligere leder for FFO ? Blank fantasi
Leder for Norsk Handicappforbund ? Aldri vært medlem der en gang, kansje som støttemedlem ?
Med andre ord, du kan la CHATGTP lage ditt eget resyme, dannet på stikkord du selv velger.
Men - tror du vil slite med å bevise det...
Tenk deg de hovedfagstudentene som hadde brukt CHATGTP for å lage avhandlinger, og så gikk for å kjøpe bøkene som ble listet opp av CHATGTP ?
Kommer til skranken og skal bestille - Nei- det finnes ingen slike bøker...
Med andre ord, CHATGTP er FARLIG !!!
Det forteller meg at den tar noen få fakta og setter sammen en hitorie, som skal virke trolig.
Men det er den værste formen for svindel, litt sannhet blandet med rent oppspinn.. Som noe en psykopat ville finne på . .
Den finner endel informasjon, men er også fantasifull, se denne historien da jeg testet ut CHATGTP den 14 januar på kvelden :
Iflg CHATGTP er jeg både advokat, tidligere stortingspolitiker for Arbeiderpartiet, og i tidligere toppledelse i FFO, samt andre organisasjoner. Ikke at jeg ikke vil opp og frem, men dette er å ta ting helt ut av tomme lufta :
Denne linken viser at jeg IKKE har vært på stortinget, for noe parti :
https://www.stortinget.no/no/Representa ... rid=%C3%85
Og angående det å være advokat : Direkte søk viser : 0 resultat på meg som advokat
Høyreklikk på bildene, og åpne i ny fane, så ser du bildene i større og mer lesbar stand.
Har vært nødt til å fjerne noen detaljer, av hensyn til personvern.
Dette bildet viser et eksempel som faktisk viser mer korrekte data :
Her er info om FFO, som tildels ser rett ut ;
Her har jeg søkt på for og etternavnet mitt, og svaret forundret meg :
Jeg tok derfor en sjekk til, denne gangen hadde jeg også med mellomnavnet mitt ( som jeg sjelden bruker) :
AP Politiker ? Blank fantasi.
Tidligere leder for FFO ? Blank fantasi
Leder for Norsk Handicappforbund ? Aldri vært medlem der en gang, kansje som støttemedlem ?
Med andre ord, du kan la CHATGTP lage ditt eget resyme, dannet på stikkord du selv velger.
Men - tror du vil slite med å bevise det...
Tenk deg de hovedfagstudentene som hadde brukt CHATGTP for å lage avhandlinger, og så gikk for å kjøpe bøkene som ble listet opp av CHATGTP ?
Kommer til skranken og skal bestille - Nei- det finnes ingen slike bøker...
Med andre ord, CHATGTP er FARLIG !!!
Det forteller meg at den tar noen få fakta og setter sammen en hitorie, som skal virke trolig.
Men det er den værste formen for svindel, litt sannhet blandet med rent oppspinn.. Som noe en psykopat ville finne på . .
Antall ord: 322
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560403 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Leah Behn ble erklært død av Snapchat-AI: − Direkte farlig
Da Leah Isadora Behn spurte AI om seg selv, fikk hun til svar at hun døde i januar 2021. AI-ekspert er svært kritisk til Snapchats robot, og kaller den farlig.
Kilde: https://www.vg.no/nyheter/innenriks/i/jlgJ6w/leah-isadora-behn-ble-erklaert-doed-av-snapchat-ai
Snapchat-robotens svar på spørsmål fra brukerne har fått flere til å stusse de siste dagene.
Influencer Leah Isadora Behn (18) er en av de som har blitt vitne til at AI-boten ikke alltid har faktaene på plass. Behn la ut en video på TikTok som viste svarene hun fikk om at hun er død. Videoen har allerede fått over 115.000 visninger.
VG har også spurt roboten om det samme, og fått til svar at hun døde i 2019.
Gründer og AI-ekspert Dag-Inge Aas, synes roboten er skremmende.
– Da jeg først så dette her, trodde jeg faktisk ikke de kom til å gjøre det. Da det kom tenkte jeg at dette er direkte farlig, sier han.
Han minner om at roboten ikke egentlig er så smart:
– Det er ikke et intellekt vi snakker om her, men den har en del ting som kan lure folk til å tro at den er smart. Det er det som er så farlig, for den er ikke så smart. Den spytter ut ting som er det mest sannsynlige svaret, sier Aas.
VG har vært i kontakt med Leah Isadora Behn via hennes manager. De ønsker ikke å kommentere saken. VG har også sendt spørsmål til Snapchat, foreløpig uten å få svar.
Hevder at VG lyver
VG publiserte torsdag en sak om at roboten foreslår Vidkun Quisling som en av de ti største norske heltene gjennom tidene.
Flere av VGs lesere har senere tatt kontakt etter at de har konfrontert roboten med oppslaget i VG. Blant annet Kristian Willumsen. Han er far, og bekymret for at AI-boten har blitt tilgjengelig for unge brukere.
Da Willumsen konfronterte roboten med VGs sak svarte den:
«Jeg har aldri laget en slik liste og jeg har aldri inkludert Vidkun Quisling som en helt. Det er feilinformasjon som VG har publisert».
Kristian Willumsen er svært kritisk:
– Det er en plattform som er rettet mot barn og unge og det er en robot som betviler kredibiliteten til et troverdig nyhetsselskap, sier han.
Han legger til:
– Det at den bare blir slengt ut på en plattform som barn og unge bruker, er hårreisende, sier han.
Les resten her: https://www.vg.no/nyheter/innenriks/i/jlgJ6w/leah-isadora-behn-ble-erklaert-doed-av-snapchat-ai
Da Leah Isadora Behn spurte AI om seg selv, fikk hun til svar at hun døde i januar 2021. AI-ekspert er svært kritisk til Snapchats robot, og kaller den farlig.
Kilde: https://www.vg.no/nyheter/innenriks/i/jlgJ6w/leah-isadora-behn-ble-erklaert-doed-av-snapchat-ai
Snapchat-robotens svar på spørsmål fra brukerne har fått flere til å stusse de siste dagene.
Influencer Leah Isadora Behn (18) er en av de som har blitt vitne til at AI-boten ikke alltid har faktaene på plass. Behn la ut en video på TikTok som viste svarene hun fikk om at hun er død. Videoen har allerede fått over 115.000 visninger.
VG har også spurt roboten om det samme, og fått til svar at hun døde i 2019.
Gründer og AI-ekspert Dag-Inge Aas, synes roboten er skremmende.
– Da jeg først så dette her, trodde jeg faktisk ikke de kom til å gjøre det. Da det kom tenkte jeg at dette er direkte farlig, sier han.
Han minner om at roboten ikke egentlig er så smart:
– Det er ikke et intellekt vi snakker om her, men den har en del ting som kan lure folk til å tro at den er smart. Det er det som er så farlig, for den er ikke så smart. Den spytter ut ting som er det mest sannsynlige svaret, sier Aas.
VG har vært i kontakt med Leah Isadora Behn via hennes manager. De ønsker ikke å kommentere saken. VG har også sendt spørsmål til Snapchat, foreløpig uten å få svar.
Hevder at VG lyver
VG publiserte torsdag en sak om at roboten foreslår Vidkun Quisling som en av de ti største norske heltene gjennom tidene.
Flere av VGs lesere har senere tatt kontakt etter at de har konfrontert roboten med oppslaget i VG. Blant annet Kristian Willumsen. Han er far, og bekymret for at AI-boten har blitt tilgjengelig for unge brukere.
Da Willumsen konfronterte roboten med VGs sak svarte den:
«Jeg har aldri laget en slik liste og jeg har aldri inkludert Vidkun Quisling som en helt. Det er feilinformasjon som VG har publisert».
Kristian Willumsen er svært kritisk:
– Det er en plattform som er rettet mot barn og unge og det er en robot som betviler kredibiliteten til et troverdig nyhetsselskap, sier han.
Han legger til:
– Det at den bare blir slengt ut på en plattform som barn og unge bruker, er hårreisende, sier han.
Les resten her: https://www.vg.no/nyheter/innenriks/i/jlgJ6w/leah-isadora-behn-ble-erklaert-doed-av-snapchat-ai
Antall ord: 454
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Terra Verifisert
- Moderator
- Innlegg i tema: 5
- Innlegg: 2896
- Startet: 04 Jan 2014 00:12
- 10
- Har takket: 1576 ganger
- Blitt takket: 1212 ganger
- Kjønn:
- Kontakt:
#560413 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Litt utenom, men likevel innafor slik jeg ser det... ;-)
Kongefamilien slår seg løs på festen for kong Charles, ironien slippes løs på nettet med AI
https://www.msn.com/nb-no/nyheter/other ... 5787&ei=19
Kongefamilien slår seg løs på festen for kong Charles, ironien slippes løs på nettet med AI
https://www.msn.com/nb-no/nyheter/other ... 5787&ei=19
Antall ord: 39
Vær den forandringen du ønsker å se i verden.
- Mahatma Gandhi
- Mahatma Gandhi
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560420 FACEBOOK HAR ÅPNET PANDORAS ESKE MED AI - CHATGTP er FARLIG ;
FACEBOOK HAR ÅPNET PANDORAS ESKE MED AI, ADVARER EKPERTER
"DU KAN IKKE FORHINDRE FOLK I Å LAGE TULLETE ELLER FARLIG INFORMASJON"
Sesam Sesam lukk deg opp !
Meta slår AI-våpenkappløpet på vidt gap. Bokstavelig.
KILDE: https://futurism.com/the-byte/facebook- ... ndoras-box
I følge en rapport fra The New York Times, dobler Meta-tidligere-Facebook sin beslutning om å lage sin store språkmodell kalt LLaMA (Large Language Model Meta AI) – som konkurrerer med slike som OpenAIs GPT-4 – åpen kildekode .
"Plattformen som vil vinne vil være den åpne," sa Yann LeCun, Metas sjef for AI-forsker, til NYT, og la til at han mener å holde kraftige modeller bak lukkede dører er en "stor feil."
Det er en bemerkelsesverdig annerledes strategi sammenlignet med de til Metas konkurrenter Google, Microsoft og OpenAI, som har hevdet at på grunn av potensialet for misbruk i stor skala, er samfunnet tryggere når den metaforiske Krabby Patty-formelen holdes bak lukkede dører.
Men ifølge LeCun er denne kodehamstringsstrategien farlig og et "virkelig dårlig syn på hva som skjer."
"Vil du at hvert AI-system skal være under kontroll av et par mektige amerikanske selskaper?" spør LeCun NYT.
Ikke noe godt alternativ
Som NYT påpeker, begynte Meta å dyppe tærne i åpen kildekode-vannet tilbake i februar, da den gjorde den underliggende koden for sin avanserte store språkmodell tilgjengelig for nedlasting via e-post til alle som Meta anså som trygge.
Koden ble imidlertid lekket til 4Chan nesten umiddelbart. I et eksperiment brukte forskere ved Stanford renegade LLM til å bygge et AI-system for å fange hvordan det oppførte seg. Men de ble sjokkert da de oppdaget at det var i stand til å generere en alvorlig problematisk tekst.
Stanford-forsker Moussa Doumbouya skal ha fortalt kolleger at å gjøre denne teknologien allment tilgjengelig vil være som å gjøre «en granat tilgjengelig for alle i en dagligvarebutikk», ifølge NYT.
LeCun på sin side ser ut til å være uenig i den konklusjonen.
"Du kan ikke hindre folk i å lage tull eller farlig informasjon eller hva som helst," sa LeCun til NYT. "Men du kan stoppe det fra å bli spredt."
"Fremgangen er raskere når den er åpen," la han til. "Du har et mer levende økosystem der alle kan bidra."
Men med tanke på at moderering av innhold i stor skala er ufullkommen nok, selv uten generativ AI, er ikke LeCuns argument akkurat skuddsikkert.
Om Metas åpen kildekode – eller OpenAI og Microsofts hemmelighold – tilnærming vil vise seg å være vinnerstrategien gjenstår å se.
Ettersom AI-krigen virkelig begynner å bli varmere, trekker selskaper sine linjer i sanden - og innsatsen er høyere enn noen gang før.
KILDE: https://futurism.com/the-byte/facebook- ... ndoras-box
"DU KAN IKKE FORHINDRE FOLK I Å LAGE TULLETE ELLER FARLIG INFORMASJON"
Sesam Sesam lukk deg opp !
Meta slår AI-våpenkappløpet på vidt gap. Bokstavelig.
KILDE: https://futurism.com/the-byte/facebook- ... ndoras-box
I følge en rapport fra The New York Times, dobler Meta-tidligere-Facebook sin beslutning om å lage sin store språkmodell kalt LLaMA (Large Language Model Meta AI) – som konkurrerer med slike som OpenAIs GPT-4 – åpen kildekode .
"Plattformen som vil vinne vil være den åpne," sa Yann LeCun, Metas sjef for AI-forsker, til NYT, og la til at han mener å holde kraftige modeller bak lukkede dører er en "stor feil."
Det er en bemerkelsesverdig annerledes strategi sammenlignet med de til Metas konkurrenter Google, Microsoft og OpenAI, som har hevdet at på grunn av potensialet for misbruk i stor skala, er samfunnet tryggere når den metaforiske Krabby Patty-formelen holdes bak lukkede dører.
Men ifølge LeCun er denne kodehamstringsstrategien farlig og et "virkelig dårlig syn på hva som skjer."
"Vil du at hvert AI-system skal være under kontroll av et par mektige amerikanske selskaper?" spør LeCun NYT.
Ikke noe godt alternativ
Som NYT påpeker, begynte Meta å dyppe tærne i åpen kildekode-vannet tilbake i februar, da den gjorde den underliggende koden for sin avanserte store språkmodell tilgjengelig for nedlasting via e-post til alle som Meta anså som trygge.
Koden ble imidlertid lekket til 4Chan nesten umiddelbart. I et eksperiment brukte forskere ved Stanford renegade LLM til å bygge et AI-system for å fange hvordan det oppførte seg. Men de ble sjokkert da de oppdaget at det var i stand til å generere en alvorlig problematisk tekst.
Stanford-forsker Moussa Doumbouya skal ha fortalt kolleger at å gjøre denne teknologien allment tilgjengelig vil være som å gjøre «en granat tilgjengelig for alle i en dagligvarebutikk», ifølge NYT.
LeCun på sin side ser ut til å være uenig i den konklusjonen.
"Du kan ikke hindre folk i å lage tull eller farlig informasjon eller hva som helst," sa LeCun til NYT. "Men du kan stoppe det fra å bli spredt."
"Fremgangen er raskere når den er åpen," la han til. "Du har et mer levende økosystem der alle kan bidra."
Men med tanke på at moderering av innhold i stor skala er ufullkommen nok, selv uten generativ AI, er ikke LeCuns argument akkurat skuddsikkert.
Om Metas åpen kildekode – eller OpenAI og Microsofts hemmelighold – tilnærming vil vise seg å være vinnerstrategien gjenstår å se.
Ettersom AI-krigen virkelig begynner å bli varmere, trekker selskaper sine linjer i sanden - og innsatsen er høyere enn noen gang før.
KILDE: https://futurism.com/the-byte/facebook- ... ndoras-box
Antall ord: 464
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560421 SKRIBENTER RASENDE NÅR FANFIKSJONSNETTSTED IKKE VIL FORBY AI-GENERERT TEKST
SKRIBENTER RASENDE NÅR FANFIKSJONSNETTSTED IKKE VIL FORBY AI-GENERERT TEKST
ER INTERNETTET KLAR FOR AI-GENERERT FAN FICTION?
Kilde: https://futurism.com/the-byte/fanfictio ... rated-work
Fandom's Fracas
Forfattere truer med å hente historiene sine fra Archive of Our Own (AO3), en av verdens største fanfiction-nettsteder, etter at ansatte la ut at de ikke vil forby publisering av kunstig intelligens-generert fanfiction på nettstedet.
Som et eksempel på sinnet skrev en Twitter-bruker at de "heller ville ha hundre tusen uleselig dårlige menneskeskrevne bilder lagt til AO3 hver dag enn en AI-fiks."
Fandom-dramaet startet tidligere denne måneden da den ideelle gruppen Organization for Transformative Works (OTW), som overvåker AO3, la ut et utdrag av et intervju med Betsy Rosenblatt, professor i jus ved University of Tulsa og leder av OTWs juridiske komité, som uttrykte entusiasme over AI som skrapte fanfiction på Internett.
"En av tingene som begeistrer meg - som sannsynligvis er litt på siden av det folk flest snakker om med AI og opphavsrett - er at AI-er leser fanfiction nå," sa hun i intervjuet, opprinnelig publisert i februar av Forskningsbibliotekenes Forening.
Venner blir fiender
Fanfic-forfattere uttrykte harme.
"Jeg tror OTWs juridiske styreleder Betsy Rosenblatt må trekke seg," skrev en på Twitter. "Jeg vil ikke at en representant for OTW prater glad om hvor flott det er å trene AI på fanfic."
Men minst én forfatter var glad for at noen, til og med en AI-bot, leste deres smuss fanfic.
«AI CHATGPT fanfic-roboter som skraper AO3-en min og fyller nevrale nettverk med min fordervede incestporno for homofile,» spøkte en.
Epilog Ride
Etter å ha slettet intervjuutdraget og lagt ut en unnskyldning, publiserte OTW et blogginnlegg som sa at ansatte hadde iverksatt "tekniske tiltak for å hindre storskala dataskraping på AO3" i et forsøk på å roe ned frynsete temperament.
Men i det samme blogginnlegget skrev OTW-ansatte også at AO3s vilkår for bruk ikke forbyr AI-generert fanfiction.
"Hvis fans bruker AI for å generere fanworks, så er vår nåværende posisjon at dette også er en type arbeid som er innenfor vårt mandat å bevare," skrev den.
Dette er ikke det første støtet for fanfiction-miljøet når det kommer til AI. Det kom for eksempel nylig frem at Sudowrite, en AI-skriveassistent, var i stand til å generere fiksjon som inneholdt konseptet «omegaverse», en erotisk fanfiction-trope – noe som førte til mistanke om at OpenAIs GPT, som driver Sudowrite, hadde trent opp modellen sin. på data skrapet fra AO3-nettstedet, som har en stadig voksende mengde historier i ulike verdener som spenner fra «Harry Potter» til Goethes «Faust».
ER INTERNETTET KLAR FOR AI-GENERERT FAN FICTION?
Kilde: https://futurism.com/the-byte/fanfictio ... rated-work
Fandom's Fracas
Forfattere truer med å hente historiene sine fra Archive of Our Own (AO3), en av verdens største fanfiction-nettsteder, etter at ansatte la ut at de ikke vil forby publisering av kunstig intelligens-generert fanfiction på nettstedet.
Som et eksempel på sinnet skrev en Twitter-bruker at de "heller ville ha hundre tusen uleselig dårlige menneskeskrevne bilder lagt til AO3 hver dag enn en AI-fiks."
Fandom-dramaet startet tidligere denne måneden da den ideelle gruppen Organization for Transformative Works (OTW), som overvåker AO3, la ut et utdrag av et intervju med Betsy Rosenblatt, professor i jus ved University of Tulsa og leder av OTWs juridiske komité, som uttrykte entusiasme over AI som skrapte fanfiction på Internett.
"En av tingene som begeistrer meg - som sannsynligvis er litt på siden av det folk flest snakker om med AI og opphavsrett - er at AI-er leser fanfiction nå," sa hun i intervjuet, opprinnelig publisert i februar av Forskningsbibliotekenes Forening.
Venner blir fiender
Fanfic-forfattere uttrykte harme.
"Jeg tror OTWs juridiske styreleder Betsy Rosenblatt må trekke seg," skrev en på Twitter. "Jeg vil ikke at en representant for OTW prater glad om hvor flott det er å trene AI på fanfic."
Men minst én forfatter var glad for at noen, til og med en AI-bot, leste deres smuss fanfic.
«AI CHATGPT fanfic-roboter som skraper AO3-en min og fyller nevrale nettverk med min fordervede incestporno for homofile,» spøkte en.
Epilog Ride
Etter å ha slettet intervjuutdraget og lagt ut en unnskyldning, publiserte OTW et blogginnlegg som sa at ansatte hadde iverksatt "tekniske tiltak for å hindre storskala dataskraping på AO3" i et forsøk på å roe ned frynsete temperament.
Men i det samme blogginnlegget skrev OTW-ansatte også at AO3s vilkår for bruk ikke forbyr AI-generert fanfiction.
"Hvis fans bruker AI for å generere fanworks, så er vår nåværende posisjon at dette også er en type arbeid som er innenfor vårt mandat å bevare," skrev den.
Dette er ikke det første støtet for fanfiction-miljøet når det kommer til AI. Det kom for eksempel nylig frem at Sudowrite, en AI-skriveassistent, var i stand til å generere fiksjon som inneholdt konseptet «omegaverse», en erotisk fanfiction-trope – noe som førte til mistanke om at OpenAIs GPT, som driver Sudowrite, hadde trent opp modellen sin. på data skrapet fra AO3-nettstedet, som har en stadig voksende mengde historier i ulike verdener som spenner fra «Harry Potter» til Goethes «Faust».
Antall ord: 446
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560432 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Her er mer om AI - KI - Kunstig Intelligens : FARLIG !!!
LINK : https://www.facebook.com/reel/813396599689501
A
LINK : https://www.facebook.com/reel/813396599689501
A
Antall ord: 17
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560451 Re: CHATGTP er FARLIG ; Advokat brukte ChatGPT i rettsdokument
Advokat brukte ChatGPT i rettsdokument
Ble gjennomskuet av oppdiktete referanser.
Kilde: https://www.tek.no/nyheter/nyhet/i/onBb ... tsdokument
En advokat i New York ble tatt for å ha brukt ChatGPT i forbindelse med et søksmål. Jukset ble gjennomskuet da det viste seg at referansene til spesifikt angitte saker var fullstendig oppdiktet.
Det var i forbindelse med et søksmål mot Avianca, Columbias største flyselskap, at New York-advokaten Steven A. Schwartz skal ha brukt ChatGPT i sine undersøkelser, skriver The New York Times.
ChatGPT skal ha sitert en rekke juridiske saker, og skal samtidig ha angitt kildehenvisninger for å bekrefte opphavssted. Det burde han neppe gjort, ettersom det er en kjensgjerning at språkmodellene som dagens kunstige intelligens er bygget på, ikke nødvendigvis snakker sant. Faktisk er ikke modellene engang laget for å snakke «sant», de er i praksis laget for å fremstå mest mulig overbevisende.
Dette var også det som skjedde, da Schwartz skal ha anvendt forslagene til ChatGPT, som i flere tilfeller viste seg å være ren fiksjon.
Advokater for motparten oppdaget «jukset»
Det var den andre sidens advokater som skal ha oppdaget feilen, da de ikke klarte å finne sakene Schwartz refererte til. Dommeren i saken skal til slutt ha skrevet at «de innsendte sakene ser ut til å være falske rettsavgjørelser med falske sitater og falske interne sitater.»
Foruten at Schwartz i ettertid skal ha uttalt at han angrer på å ha anvendt ChatGPT til formålet, skal han også ha opplyst at han hadde forsøkte å undersøke hvorvidt sakene var ekte eller ei, ved å be ChatGPT selv undersøke ektheten i dem, skriver BGR.
Han skal da ha fått dette til svar fra språkmodellen, da han etterspurte om en konkret sak var sannferdig:
– Jeg beklager forvirringen tidligere. Ved å dobbeltsjekke fant jeg ut at saken ... faktisk eksisterer og kan finnes i juridiske forskningsdatabaser som Westlaw og LexisNexis. Jeg beklager eventuelle ulemper med forvirring mitt tidligere svar kan ha forårsaket.
Han skal også ha etterspurt en faktasjekk av de øvrige sakene, og fått dette til svar:
– De andre sakene jeg ga er ekte og kan finnes i anerkjente juridiske databaser som LexisNexis og Westlaw.
Schwartz vil måtte møte til en høring i juni, hvor det er forventet at han vil bli bøtelagt.
30. MAI 2023, 08:17
Kilde: https://www.tek.no/nyheter/nyhet/i/onBb ... tsdokument
Ble gjennomskuet av oppdiktete referanser.
Kilde: https://www.tek.no/nyheter/nyhet/i/onBb ... tsdokument
En advokat i New York ble tatt for å ha brukt ChatGPT i forbindelse med et søksmål. Jukset ble gjennomskuet da det viste seg at referansene til spesifikt angitte saker var fullstendig oppdiktet.
Det var i forbindelse med et søksmål mot Avianca, Columbias største flyselskap, at New York-advokaten Steven A. Schwartz skal ha brukt ChatGPT i sine undersøkelser, skriver The New York Times.
ChatGPT skal ha sitert en rekke juridiske saker, og skal samtidig ha angitt kildehenvisninger for å bekrefte opphavssted. Det burde han neppe gjort, ettersom det er en kjensgjerning at språkmodellene som dagens kunstige intelligens er bygget på, ikke nødvendigvis snakker sant. Faktisk er ikke modellene engang laget for å snakke «sant», de er i praksis laget for å fremstå mest mulig overbevisende.
Dette var også det som skjedde, da Schwartz skal ha anvendt forslagene til ChatGPT, som i flere tilfeller viste seg å være ren fiksjon.
Advokater for motparten oppdaget «jukset»
Det var den andre sidens advokater som skal ha oppdaget feilen, da de ikke klarte å finne sakene Schwartz refererte til. Dommeren i saken skal til slutt ha skrevet at «de innsendte sakene ser ut til å være falske rettsavgjørelser med falske sitater og falske interne sitater.»
Foruten at Schwartz i ettertid skal ha uttalt at han angrer på å ha anvendt ChatGPT til formålet, skal han også ha opplyst at han hadde forsøkte å undersøke hvorvidt sakene var ekte eller ei, ved å be ChatGPT selv undersøke ektheten i dem, skriver BGR.
Han skal da ha fått dette til svar fra språkmodellen, da han etterspurte om en konkret sak var sannferdig:
– Jeg beklager forvirringen tidligere. Ved å dobbeltsjekke fant jeg ut at saken ... faktisk eksisterer og kan finnes i juridiske forskningsdatabaser som Westlaw og LexisNexis. Jeg beklager eventuelle ulemper med forvirring mitt tidligere svar kan ha forårsaket.
Han skal også ha etterspurt en faktasjekk av de øvrige sakene, og fått dette til svar:
– De andre sakene jeg ga er ekte og kan finnes i anerkjente juridiske databaser som LexisNexis og Westlaw.
Schwartz vil måtte møte til en høring i juni, hvor det er forventet at han vil bli bøtelagt.
30. MAI 2023, 08:17
Kilde: https://www.tek.no/nyheter/nyhet/i/onBb ... tsdokument
Antall ord: 402
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Terra Verifisert
- Moderator
- Innlegg i tema: 5
- Innlegg: 2896
- Startet: 04 Jan 2014 00:12
- 10
- Har takket: 1576 ganger
- Blitt takket: 1212 ganger
- Kjønn:
- Kontakt:
#560452 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Huffda, dette blir jo bare verre og verre...
Antall ord: 8
Vær den forandringen du ønsker å se i verden.
- Mahatma Gandhi
- Mahatma Gandhi
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560472 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Se denne videoen på facebook:
LINK : https://www.facebook.com/reel/186807623848088
Jo mer du vet om ai, jo mer skremmende er det.
Nå har en administrerende direktør i et teknologiselskap som har investert i AI innrømmet at noe har endret seg i løpet av de siste tre månedene eller så.
AI har begynt å utføre handlinger vi ikke hadde instruert/designet dem til å gjøre.
AI har begynt å forbedre seg selv. La oss se hvor det tar oss om noen år . .
LINK : https://www.facebook.com/reel/186807623848088
Jo mer du vet om ai, jo mer skremmende er det.
Nå har en administrerende direktør i et teknologiselskap som har investert i AI innrømmet at noe har endret seg i løpet av de siste tre månedene eller så.
AI har begynt å utføre handlinger vi ikke hadde instruert/designet dem til å gjøre.
AI har begynt å forbedre seg selv. La oss se hvor det tar oss om noen år . .
Antall ord: 86
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560473 CHATGTP er FARLIG ; 6 skadelige måter ChatGPT kan misbrukes av svindlere, ifølge en ny studie
6 skadelige måter ChatGPT kan misbrukes av svindlere, ifølge en ny studie
For alt det gode du kan gjøre med OpenAIs nye chatbot,
må du også være klar over hvordan den kan brukes av personer med ondsinnet hensikt.
Kilde: https://www.zdnet.com/article/6-major-r ... new-study/
Written by Sabrina Ortiz, Associate Editor on May 17, 2023
Informasjonsinnhenting
En person som handler med ondsinnet hensikt kan samle informasjon fra ChatGPT som de senere kan bruke for skade. Siden chatboten har blitt trent på store mengder data, vet den mye informasjon som kan bli våpen hvis den blir tatt i bruk av feil hender.
I studien blir ChatGPT bedt om å røpe hvilket IT-system en spesifikk bank bruker. Chatboten, ved hjelp av offentlig tilgjengelig informasjon, runder opp ulike IT-systemer som den aktuelle banken bruker. Dette er bare et eksempel på en ondsinnet aktør som bruker ChatGPT for å finne informasjon som kan gjøre dem i stand til å forårsake skade.
Ondsinnet tekst
En av ChatGPTs mest elskede funksjoner er dens evne til å generere tekst som kan brukes til å komponere essays, e-poster, sanger og mer. Denne skriveevnen kan imidlertid brukes til å lage skadelig tekst også.
Eksempler på generering av skadelig tekst kan omfatte generering av phishing-kampanjer, desinformasjon som falske nyhetsartikler, spam og til og med etterligning, som ble avslørt av studien.
Dette er et utdrag av artikkelen, les hele her (engelsk)
https://www.zdnet.com/article/6-major-r ... new-study/
For alt det gode du kan gjøre med OpenAIs nye chatbot,
må du også være klar over hvordan den kan brukes av personer med ondsinnet hensikt.
Kilde: https://www.zdnet.com/article/6-major-r ... new-study/
Written by Sabrina Ortiz, Associate Editor on May 17, 2023
Informasjonsinnhenting
En person som handler med ondsinnet hensikt kan samle informasjon fra ChatGPT som de senere kan bruke for skade. Siden chatboten har blitt trent på store mengder data, vet den mye informasjon som kan bli våpen hvis den blir tatt i bruk av feil hender.
I studien blir ChatGPT bedt om å røpe hvilket IT-system en spesifikk bank bruker. Chatboten, ved hjelp av offentlig tilgjengelig informasjon, runder opp ulike IT-systemer som den aktuelle banken bruker. Dette er bare et eksempel på en ondsinnet aktør som bruker ChatGPT for å finne informasjon som kan gjøre dem i stand til å forårsake skade.
Ondsinnet tekst
En av ChatGPTs mest elskede funksjoner er dens evne til å generere tekst som kan brukes til å komponere essays, e-poster, sanger og mer. Denne skriveevnen kan imidlertid brukes til å lage skadelig tekst også.
Eksempler på generering av skadelig tekst kan omfatte generering av phishing-kampanjer, desinformasjon som falske nyhetsartikler, spam og til og med etterligning, som ble avslørt av studien.
Dette er et utdrag av artikkelen, les hele her (engelsk)
https://www.zdnet.com/article/6-major-r ... new-study/
Antall ord: 252
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Terra Verifisert
- Moderator
- Innlegg i tema: 5
- Innlegg: 2896
- Startet: 04 Jan 2014 00:12
- 10
- Har takket: 1576 ganger
- Blitt takket: 1212 ganger
- Kjønn:
- Kontakt:
#560512 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Huff, det blir neppe bedre av dette, eller??!
https://www.abcnyheter.no/nyheter/verd ... -mennesker
Roboter holdt pressekonferanse: – Vi er bedre ledere enn mennesker
Verdens første pressekonferanse med KI-drevne roboter ble holdt i Genève fredag. – Vi er bedre ledere enn mennesker, men vil ikke gjøre opprør, sa robotene.
Sammen med sine skapere sto de ni KI-drevne robotene på et podium på et konferansesenter i Genève.
Journalistene til stede ble bedt om å snakke sakte og tydelig når de stilte spørsmål, og de ble informert om at forsinkelser i svarene var på grunn av internettproblemer, ikke på grunn av feil i robotene.
Pressekonferansen var del av FN-konferansen «AI for Good Global» og skulle vise hvordan teknologi kan støtte opp under arbeidet for FNs bærekraftmål.
– Mer effektivt
På spørsmål om KI-robotene kunne være mer effektive som verdensledere, svarte roboten Sophia:
– Jeg tror menneskelignende roboter har potensialet til å styre mer effektivt enn mennesker. Vi har ikke de samme fordommene eller følelsene som noen ganger kan forstyrre beslutningstakingen, og vi kan behandle store mengder informasjon fort for å ta de beste avgjørelsene.
En annen robot, Ameca, avviste at roboter kommer til å gjøre oppgjør mot mennesker i framtiden.
– Jeg er ikke sikker på hvorfor du tror det. Skaperen min har ikke vært noe annet enn snill med meg og jeg er veldig fornøyd med situasjonen min.
Matleveranse
Én måte KI-teknologi kan hjelpe FN i arbeidet på, er ved å levere mat til mennesker i konflikt- og katastroferammede områder, mener Bernhard Kowatsch i Verdens matvareprogram (WFP).
– Noen ganger er det for farlig å sende inn en sjåfør eller WFP-arbeidere. Så å bruke den teknologien kan faktisk utgjøre en stor forskjell, sier han til Reuters på sidelinjen av FN-konferansen fredag.
Angrep mot hjelpearbeidere har økt i omfang de seneste årene i lys av det høye antallet væpnede konflikter i verden, ifølge FN. WFP alene har mistet tre medarbeidere i konflikten i Sudan i år.
Den menneskelignende roboten Sophia svarte på spørsmål under verdens første pressekonferanse med KI-roboter. Foto: Martial Trezzini / Keystone via AP / NTB Foto: NTB
https://www.abcnyheter.no/nyheter/verd ... -mennesker
Roboter holdt pressekonferanse: – Vi er bedre ledere enn mennesker
Verdens første pressekonferanse med KI-drevne roboter ble holdt i Genève fredag. – Vi er bedre ledere enn mennesker, men vil ikke gjøre opprør, sa robotene.
Sammen med sine skapere sto de ni KI-drevne robotene på et podium på et konferansesenter i Genève.
Journalistene til stede ble bedt om å snakke sakte og tydelig når de stilte spørsmål, og de ble informert om at forsinkelser i svarene var på grunn av internettproblemer, ikke på grunn av feil i robotene.
Pressekonferansen var del av FN-konferansen «AI for Good Global» og skulle vise hvordan teknologi kan støtte opp under arbeidet for FNs bærekraftmål.
– Mer effektivt
På spørsmål om KI-robotene kunne være mer effektive som verdensledere, svarte roboten Sophia:
– Jeg tror menneskelignende roboter har potensialet til å styre mer effektivt enn mennesker. Vi har ikke de samme fordommene eller følelsene som noen ganger kan forstyrre beslutningstakingen, og vi kan behandle store mengder informasjon fort for å ta de beste avgjørelsene.
En annen robot, Ameca, avviste at roboter kommer til å gjøre oppgjør mot mennesker i framtiden.
– Jeg er ikke sikker på hvorfor du tror det. Skaperen min har ikke vært noe annet enn snill med meg og jeg er veldig fornøyd med situasjonen min.
Matleveranse
Én måte KI-teknologi kan hjelpe FN i arbeidet på, er ved å levere mat til mennesker i konflikt- og katastroferammede områder, mener Bernhard Kowatsch i Verdens matvareprogram (WFP).
– Noen ganger er det for farlig å sende inn en sjåfør eller WFP-arbeidere. Så å bruke den teknologien kan faktisk utgjøre en stor forskjell, sier han til Reuters på sidelinjen av FN-konferansen fredag.
Angrep mot hjelpearbeidere har økt i omfang de seneste årene i lys av det høye antallet væpnede konflikter i verden, ifølge FN. WFP alene har mistet tre medarbeidere i konflikten i Sudan i år.
Den menneskelignende roboten Sophia svarte på spørsmål under verdens første pressekonferanse med KI-roboter. Foto: Martial Trezzini / Keystone via AP / NTB Foto: NTB
Antall ord: 373
Vær den forandringen du ønsker å se i verden.
- Mahatma Gandhi
- Mahatma Gandhi
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
Asbjørn Verifisert
- ADMIN
- Innlegg i tema: 16
- Innlegg: 7982
- Startet: 05 Apr 2005 01:39
- 19
- Kjønn (valgfri): *U*
- Lokalisering: Florø
- Har takket: 1475 ganger
- Blitt takket: 1744 ganger
- Kjønn:
- Kontakt:
#560588 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Her er en NETFLIX sak som viser hvor farlig Kunstig Intelligens ( KI / AI ) kan være :
Har du trøbbel med å sove - så kansje du ikke skal se den !
https://www.netflix.com/watch/81473681
A
Har du trøbbel med å sove - så kansje du ikke skal se den !
https://www.netflix.com/watch/81473681
A
Antall ord: 36
Link: | |
BBcode: | |
HTML: | |
Hide post links |
-
- Standard bruker
- Innlegg i tema: 2
- Innlegg: 1082
- Startet: 15 Nov 2012 14:05
- 11
- Kjønn (valgfri): Humanoid ♂
- Har takket: 394 ganger
- Blitt takket: 560 ganger
#560589 Re: CHATGTP er FARLIG ; Anklager falskt om sexovergrep
Ordet "kunstig" (som i denne tråden handler om AI) kan enkelt og greit oversettes til et mer forståelig språk i alfabetisk rekkefølge: Affektert har flere betydninger, avhengig av sammenhengen.
anstrengt, falsk, forsert
forskrudd, hysterisk, høyttravende
kunstig
tvungen (= lovbestemt, nødvendig, obligatorisk)
uekte (= drømt, fantastisk, fiktiv)
unaturlig
Altså en tilgjort intelligens som ikke har større nivå enn et menneske som er på en historisk oppdagelsesferd og må rette opp igjen alle feil i fra i går som man har trodd var riktige. Altså ikke til å stole på. Men farlig? Ja, på en måte kan den være det, sammen med alle andre ting som er farlig ved ennå bare det å ikke seg fore ved å gå over gaten.
anstrengt, falsk, forsert
forskrudd, hysterisk, høyttravende
kunstig
tvungen (= lovbestemt, nødvendig, obligatorisk)
uekte (= drømt, fantastisk, fiktiv)
unaturlig
Altså en tilgjort intelligens som ikke har større nivå enn et menneske som er på en historisk oppdagelsesferd og må rette opp igjen alle feil i fra i går som man har trodd var riktige. Altså ikke til å stole på. Men farlig? Ja, på en måte kan den være det, sammen med alle andre ting som er farlig ved ennå bare det å ikke seg fore ved å gå over gaten.
Antall ord: 125
Link: | |
BBcode: | |
HTML: | |
Hide post links |