90 stories
·
1 follower

Modern Stoic Philosophy

1 Comment and 5 Shares
PERSON:
Read the whole story
Share this story
Delete
1 public comment
jlvanderzwan
1 hour ago
reply
Ok, which bit of douchebag appropriation have I missed this time?

KLG: Why Trust Science in the 21st Century? An Object Lesson

1 Share
Despite the "trust the science" mantra during the current pandemic, everyone should expect to see the data, all of it, minus any selective gloss. Who pays and for what makes a difference.
Read the whole story
Share this story
Delete

A history of ARM, part 3: Coming full circle

1 Share
A history of ARM, part 3: Coming full circle

Enlarge (credit: Jeremy Reimer/Waldemar Brandt/NASA)

The story so far: As the 20th century came to a close, ARM was on the precipice of massive change. Under its first CEO, Robin Saxby, the company had grown from 12 engineers in a barn to hundreds of employees and was the preferred choice in RISC chips for the rapidly expanding mobile market. But the mobile and computer worlds were starting to merge, and the titans of the latter industry were not planning to surrender to the upstarts of the former. (This is the final article in a three-part series. Read part 1 and part 2.)

It started, as did many things in the ARM story, with Apple.

Steve Jobs had returned, triumphantly, to the company he had co-founded. The release of the colorful gumdrop iMacs in 1998, an agreement with Microsoft, and the sale of Apple’s ARM stock had brought the company from near-bankruptcy to a solid financial footing. But Apple’s “iCEO” was still searching for the next big thing.

Read 44 remaining paragraphs | Comments

Read the whole story
Share this story
Delete

Born on Third Base, Didn’t Hit a Triple

1 Share

Pindar, Pythian 8.74-77

“If someone stumbles into good fortune without hard work,
Then many think he is a wise man among fools,
And that he has outfitted his life with well-planned schemes.
But these things aren’t up to men: god controls them.
Sometimes he raises one person up and then brings another down.”

εἰ γάρ τις ἐσλὰ πέπαται μὴ σὺν μακρῷ πόνῳ,
πολλοῖς σοφὸς δοκεῖ πεδ᾿ ἀφρόνων
βίον κορυσσέμεν ὀρθοβούλοισι μαχαναῖς·
τὰ δ᾿ οὐκ ἐπ᾿ ἀνδράσι κεῖται· δαίμων δὲ παρίσχει,
ἄλλοτ᾿ ἄλλον ὕπερθε βάλλων, ἄλλον δ᾿ ὑπὸ χειρῶν

picture of Elon Musk pointing

Read the whole story
Share this story
Delete

LastPass Breach

1 Comment and 2 Shares

Last August, LastPass reported a security breach, saying that no customer information—or passwords—were compromised. Turns out the full story is worse:

While no customer data was accessed during the August 2022 incident, some source code and technical information were stolen from our development environment and used to target another employee, obtaining credentials and keys which were used to access and decrypt some storage volumes within the cloud-based storage service.

[…]

To date, we have determined that once the cloud storage access key and dual storage container decryption keys were obtained, the threat actor copied information from backup that contained basic customer account information and related metadata including company names, end-user names, billing addresses, email addresses, telephone numbers, and the IP addresses from which customers were accessing the LastPass service.

The threat actor was also able to copy a backup of customer vault data from the encrypted storage container which is stored in a proprietary binary format that contains both unencrypted data, such as website URLs, as well as fully-encrypted sensitive fields such as website usernames and passwords, secure notes, and form-filled data.

That’s bad. It’s not an epic disaster, though.

These encrypted fields remain secured with 256-bit AES encryption and can only be decrypted with a unique encryption key derived from each user’s master password using our Zero Knowledge architecture. As a reminder, the master password is never known to LastPass and is not stored or maintained by LastPass.

So, according to the company, if you chose a strong master password—here’s my advice on how to do it—your passwords are safe. That is, you are secure as long as your password is resilient to a brute-force attack. (That they lost customer data is another story….)

Fair enough, as far as it goes. My guess is that many LastPass users do not have strong master passwords, even though the compromise of your encrypted password file should be part of your threat model. But, even so, note this unverified tweet:

I think the situation at @LastPass may be worse than they are letting on. On Sunday the 18th, four of my wallets were compromised. The losses are not significant. Their seeds were kept, encrypted, in my lastpass vault, behind a 16 character password using all character types.

If that’s true, it means that LastPass has some backdoor—possibly unintentional—into the password databases that the hackers are accessing. (Or that @Cryptopathic’s “16 character password using all character types” is something like “P@ssw0rdP@ssw0rd.”)

My guess is that we’ll learn more during the coming days. But this should serve as a cautionary tale for anyone who is using the cloud: the cloud is another name for “someone else’s computer,” and you need to understand how much or how little you trust that computer.

If you’re changing password managers, look at my own Password Safe. Its main downside is that you can’t synch between devices, but that’s because I don’t use the cloud for anything.

News articles. Slashdot thread.

Read the whole story
Share this story
Delete

‘Deze tekst is (nog) niet door een algoritme geschreven’ (Knack, 9/12/2022)

1 Share

De laatste weken regent het screenshots van ChatGPT, een algoritme dat ogenschijnlijk antwoorden op alle instructies kan formuleren. Betekent dit het einde van het schrijven? Schrijft AI in doe toekomst elk artikel of huiswerk? (Is dit bericht misschien door een AI geschreven?)

Samen met Mauritz Kelchtermans schreef ik er een opiniestuk over voor Knack: nee, het einde van het schrijven is er nog niet. Wel een goed moment om eens na te denken wat we van schrijven willen.

Hieronder vind je gehele tekst, die oorspronkelijk bij Knack verscheen.

‘Net zoals de rekenmachine ons deed nadenken over wat we met rekenvaardigheden willen bereiken, biedt de artificiële intelligentie die teksten kan produceren, een gelijkaardige kans’, schrijven Mauritz Kelchtermans en Massimiliano Simons.

Nee, dit opiniestuk is niet door een algoritme geschreven. Nog niet. Maar we gaan in de richting van een toekomst waar die vraag de norm wordt. De hype rondom nieuwe ontwikkelingen zoals GPT-3 en nu recent ChatGPT, ontwikkeld door OpenAI, is dezer dagen moeilijk te negeren. GPT-3 is een Artificiële Intelligentie (AI)-algoritme dat natuurlijke taal kan genereren, zoals tekst of spraak. Het kan op wonderbaarlijke wijze (meestal) coherente teksten produceren naar aanleiding van eenvoudige vragen.

De resultaten van GPT-3 zijn inderdaad verbluffend. Het algoritme antwoordt binnen een oogwenk op elke vraag of instructie en dat zelfs in het Nederlands. Wil je een roman over een kat naar Mars? Geen probleem. Een essay met drie argumenten waarom het wereldkampioenschap voetbal toch ethisch zou zijn? Geen probleem. Een sonnet in de stijl van Shakespeare over de coronapandemie? Kan. Een opiniestuk over de effecten van GPT-3 op onze maatschappij? Check (we zijn toch eens gaan kijken).

Overal zijn mensen met GPT-3 aan het experimenteren. Zo zijn er al onderzoekers die een volledig door GPT-3 geschreven artikel over waarom GPT-3 impact zal hebben op het schrijven van academische artikels hebben opgestuurd naar een tijdschrift (ja, zo origineel zijn wij niet).

GPT-3 lijkt ook een indrukwekkende voorspellingskracht te kennen. Wat je daaraan hebt? Het resultaat van de voorgangers van GPT-3 zie je al bij Google, Gmail of LinkedIn: vaak suggereert de applicatie al de zoektermen of de antwoorden die je kan geven op een mail of persoonlijk bericht. Dat gaat in de toekomst nog meer de regel worden.

Toch zijn er ook zaken met deze nieuwe technologie die ons zorgen baren. Allereerst weet je nooit of dat wat het algoritme produceert ook maar enigszins klopt. Zoals de meeste AI-algoritmes, zijn GPT-3 en binnenkort GPT-4 getraind op basis van afschuwelijke grote datasets met data uit het verleden. Als iets dus vaak genoeg herhaald geweest is, zal het algoritme het ook herhalen, zelfs al is het fout.

Zo reproduceert GPT-3 bijvoorbeeld soms lang weerlegde stadsmythes, zoals dat je pas een half uur na het eten mag gaan zwemmen of dat een mens gemiddeld zeven spinnen opeet tijdens zijn slaap (beiden niet waar). Of leg het algoritme bijvoorbeeld het volgende raadsel voor: een knuppel en een bal kosten in totaal €1,10. De knuppel kost €1,00 meer dan de bal. Hoeveel kost de bal? GPT-3 zal, net zoals de meeste mensen, het foute antwoord geven, dat de bal 10 cent kost (het correcte antwoord is 5 cent).

Ook reproduceert elk niet geoptimaliseerd groot taalmodel (large language model) racistische en seksistische vooroordelen, want ook die zitten in die datasets ingebakken. Laat je GPT-3 spreken over een CEO dan zal het aan een man refereren, bij aan poetshulp naar een vrouw. In die zin is GPT-3 niet gericht op het correcte antwoord, maar op hoe het in het verleden was. Of dat verleden correct of ethisch was, daar staat het fundamenteel onverschillig tegenover.

Die voorspellende krachten van GPT-3 komen dus eigenlijk neer op een extrapolatie naar de toekomst op basis van het verleden. Hoogstens worden het oude in een nieuw jasje gestoken wordt. Het heeft wat weg van hedendaagse Hollywoodfilms: een machine die gedeeltelijk draait op nostalgie, herhaling en remakes (die merkwaardig genoeg vaak genoeg floppen).

Waarom is schrijven van teksten dan zo makkelijk te automatiseren? Het antwoord is confronterend: veel schrijfwerk is an sich al mechanisch en voorspelbaar. Lewis Mumford zei het al meer dan 100 jaar geleden: om de arbeider te vervangen door een machine, moet het werk eerst gemechaniseerd worden. GPT-3 kan gemakkelijk krantenartikelen of studentenessays schrijven omdat zulke teksten al voorspelbare regels volgen.

Sommigen zien dit wellicht als goed nieuws. Hoera, algoritmes kunnen de saaie taken overnemen. Enkel de momenten van inspiratie en vernieuwing zijn nog voor de mens. Maar creativiteit en vernieuwing vereisen vaak voorafgaandelijk repetitief werk. Denk aan de Romeinse opsplitsing tussen vertalen, nabootsen en overtreffen (translatio, imitatio en aemulatio). Het idee was dat een goede kunstenaar en bij extensie iedere andere onderzoeker alleen maar meesterschap kan bereiken door eerst te herhalen en te imiteren en dan te gaan creëren. Machinale en repetitieve handelingen zijn nodig voor echte creativiteit.

Een gebrek aan goede basis vormt niet alleen een obstakel voor uitzonderlijke prestaties, maar ook het herkennen hiervan. Blind vertrouwen in GPT-3 kan leiden tot verlies van kennis en expertise. Wanneer enkel AI artikels of softwarecode schrijft, wie kan dan controleren of de inhoud ook klopt?

Uit bovenstaande blijkt dat er achter GPT-3 toch menselijke keuzes schuilgaan. GPT-3 kan alleen iets produceren op basis van een door een mens gestelde vraag, waarin vaak al de creatieve combinatie zit (bijvoorbeeld: “Schrijf een samenvatting van het Belgisch regeerakkoord in de stijl van Lize Spit”). Goede vragen stellen vereist vertrouwdheid met de tool en kennis van het eindproduct.

Dat werd goed geïllustreerd in een opiniestuk in The Guardian uit 2020, geschreven door GPT-3. In realiteit was dit nogal misleidend. De redacteurs geven immers toe dat het thema aan GPT-3 was opgelegd, en dat ze de beste stukken uit acht verschillende versies combineerden, want antwoorden op vragen gesteld aan GPT-3 zijn doorgaans weinig reproduceerbaar. Wanneer je nog eens een indrukwekkend voorbeeld van GPT-3 tegenkomt, denk daar dan aan: hoeveel mislukte, saaie of onzinnige pogingen gingen eraan vooraf, vooraleer de mens er de interessantste uitpikte?

In die zin gaat GPT-3 schrijvers en programmeurs niet vervangen. Het is immers niet zelfstandig in staat om keuzes te maken over het doel van het schrijven, en of het eindproduct ook slaagt dat doel te bereiken. Het is de student die de keuze moet maken om GPT-3 hun essay te laten schrijven; en het is de leerkracht die uiteindelijk oordeelt of GPT-3 daarin geslaagd is.

Het echte probleem is dus niet dat de mens buitengesloten wordt. De mens blijft keuzes maken. Wat wel een probleem kan worden is wie die originele keuzes maakt. Zelf een opiniestuk schrijven is eenvoudig. Maar de impliciete keuzes van waaruit een systeem zoals GPT-3 vertrekt hervormen, is lastiger. Hiervoor zijn veel trainingsdata en computertijd nodig, waarvoor je op een totale kost komt van zo’n 10 tot 20 miljoen dollar, en dan nog eens een paar dollarcents voor elke interactie met bijvoorbeeld ChatGPT. Even snel een alternatief voor GPT-3 ontwerpen dat niet discriminerend is, is niet voor iedereen weggelegd. Dus ook hier leveren we ons geleidelijk aan over aan Big Tech.

De oplossingen

De optimist gaat op bovenstaande problemen antwoorden: GPT-3 kan precies helpen als je niet creatief genoeg of niet weet welke vraag te stellen. Gebruik GPT-3 als dialoogpartner om dat uit te werken. Dat is een terechte tegenwerping die wijst op een realistisch toekomstscenario van GPT-3/4: het gaat de schrijver niet vervangen, maar er mee samenwerken.

Iets analoog zagen we bij de opkomst van schaakcomputers of de indrukwekkende prestaties van AlphaGo. We zijn niet plots massaal gestopt met schaken of go. Integendeel, er zijn nu zelfs meer spelers dan vroeger. Zolang mensen er plezier, geld of reputatie uit kunnen halen, zal ook het schrijven normalerwijze niet verdwijnen.

Bovendien zit het fascinerende vaak in de vergelijking. Zoals AlphaGo verrassende zetten kan doen in Go, zo kan GPT-3/4 ons eigen schrijven verrijken. Zo kennen we het verhaal van een hoger kaderlid die zijn onervaren collega’s in een brainstormsessie heeft ingeruild voor een vruchtbaarder gesprek met GPT-3.

Toch maken docenten zich zorgen over GPT-3: wat betekent huiswerk nog als het algoritme al het werk kan doen? Plagiaat zou best de regel kunnen worden. Toch hoeft GPT-3 niet het einde van het huiswerk te zijn. Zo kunnen we GPT-3 en zijn opvolgers bijvoorbeeld verplichten een herkenningsteken in hun teksten te verbergen. Dat herkenningsteken hoeft niet voor mensen zichtbaar te zijn, enkel voor antiplagiaatsoftware.

Maar de meest voor de hand liggende oplossing is wellicht dat GPT-3 ons moet doen nadenken over wat voor schrijven we werkelijk van onze kinderen en studenten willen. Misschien moeten repetitieve essays plaats maken voor alternatieve, creatieve oefeningen of opdrachten in de klas, waarbij de computer op slot gaat.

De geschiedenis van de rekenmachine geeft diezelfde boodschap. Ook die maakte ooit furore in de klas, met bijhorende paniek over het einde van de wiskunde. In werkelijkheid is de wiskunde niet verdwenen, maar veranderd. Zoals de rekenmachine ons deed nadenken over wat we met rekenvaardigheden willen bereiken, biedt GPT-3 een gelijkaardige kans. Niet om de wereld te automatiseren, maar om te herdenken wat schrijven in onze maatschappij kan betekenen en hoe machines ons daarin kunnen versterken, zonder ons ronduit te gaan vervangen.

Dit artikel verscheen oorspronkelijk bij Knack



Read the whole story
Share this story
Delete
Next Page of Stories