Gebruik van ChatGPT door Samsung-werknemer leidt tot lekken van vertrouwelijke gegevens

Untitled-design-3 (1).png

De semiconductordivisie van Samsung vertrouwde op ChatGPT om te helpen bij het oplossen van problemen in hun broncode. Echter, tijdens het gebruik van de AI-chatbot, lekten ze per ongeluk vertrouwelijke informatie uit, zoals broncode voor een nieuw programma en interne vergaderingsnotities over hun hardware. Helaas was dit geen geïsoleerd incident, aangezien er binnen een maand drie incidenten zijn gemeld.

Om toekomstige inbreuken te voorkomen, werkt Samsung nu aan de ontwikkeling van hun eigen AI-tool, vergelijkbaar met ChatGPT, exclusief voor intern gebruik door werknemers. Dit stelt hun fabrieksmedewerkers in staat om snelle hulp te krijgen terwijl de gevoelige informatie van het bedrijf wordt beveiligd. Deze nieuwe tool verwerkt echter alleen prompts met een grootte van 1024 bytes of minder.

Het probleem is ontstaan doordat ChatGPT wordt beheerd door een externe partij die gebruik maakt van externe servers. Daarom is er, toen Samsung hun code, testsequenties en interne vergaderinhoud in het programma invoerden, data gelekt. Samsung heeft zijn leidinggevenden en medewerkers onmiddellijk op de hoogte gebracht van het risico op gecompromitteerde vertrouwelijke informatie. Tot 11 maart had Samsung zijn medewerkers niet toegestaan om gebruik te maken van de chatbot.

Samsung is niet het enige bedrijf dat met dit probleem worstelt. Veel bedrijven beperken het gebruik van ChatGPT totdat ze een duidelijk beleid hebben opgesteld met betrekking tot het gebruik van generatieve AI. Hoewel ChatGPT een opt-out-optie biedt voor het verzamelen van gebruikersgegevens, is het vermeldenswaardig dat de informatie die aan de service wordt gevoed nog steeds toegankelijk kan zijn voor de ontwikkelaar.

Wat is ChatGPT en hoe werkt het?

ChatGPT is een AI-toepassing ontwikkeld door OpenAI die gebruik maakt van deep learning om mensachtige tekst te produceren als reactie op gebruikersinvoer. Het kan tekst genereren in verschillende stijlen en voor diverse doeleinden, waaronder het schrijven van teksten, het beantwoorden van vragen, het opstellen van e-mails, het voeren van gesprekken, het vertalen van natuurlijke taal naar code, en het uitleggen van code in verschillende programmeertalen.

ChatGPT functioneert door het voorspellen van het volgende woord in een gegeven tekst met behulp van de patronen die het heeft geleerd uit een enorme hoeveelheid gegevens tijdens het trainingsproces. Door de context van de aanwijzing en zijn vroegere leerervaring te analyseren, genereert ChatGPT een antwoord dat zo natuurlijk en samenhangend mogelijk is.

Welke maatregelen heeft Samsung genomen om toekomstige lekken te voorkomen?

Na de datalekken veroorzaakt door ChatGPT heeft Samsung verschillende maatregelen genomen om te voorkomen dat dergelijke incidenten zich opnieuw voordoen. Ten eerste heeft het bedrijf zijn werknemers geadviseerd voorzichtig te zijn bij het delen van gegevens met ChatGPT. Ze hebben ook een beperking ingesteld op de lengte van vragen die naar de service worden gestuurd, waarbij ze beperkt zijn tot 1024 bytes.

Bovendien ontwikkelt Samsung momenteel een AI-tool die vergelijkbaar is met ChatGPT, maar uitsluitend bedoeld is voor intern gebruik door medewerkers. Dit zal ervoor zorgen dat fabrieksmedewerkers snel ondersteuning krijgen terwijl gevoelige bedrijfsinformatie wordt beveiligd. Tot de ontwikkeling van deze tool waarschuwde Samsung zijn medewerkers voor de mogelijke risico's die gepaard gaan met het gebruik van ChatGPT. Ze hebben ook benadrukt dat de gegevens die in ChatGPT worden ingevoerd, worden verzonden en op externe servers worden opgeslagen, waardoor het voor het bedrijf onmogelijk is om de gegevens te controleren zodra ze zijn overgedragen.

Wat waren de gevolgen voor de werknemers die vertrouwelijke gegevens hebben gelekt?

De gevolgen voor de Samsung medewerkers die vertrouwelijke gegevens hebben gelekt naar ChatGPT zijn niet expliciet vermeld in de beschikbare informatie. Samsung Electronics neemt echter maatregelen om verdere lekken van gevoelige informatie via ChatGPT te voorkomen, waaronder het opleggen van een limiet van 1024 bytes aan de grootte van ingediende vragen. Het bedrijf heeft ook zijn medewerkers gewaarschuwd voor de mogelijke risico's van het gebruik van ChatGPT.

Bovendien ontwikkelt Samsung Semiconductor haar eigen AI-tool voor intern gebruik door werknemers, die beperkt zal zijn tot het verwerken van opdrachten tot 1024 bytes. Deze maatregelen geven aan dat Samsung het serieus neemt om haar vertrouwelijke informatie te beschermen en maatregelen neemt om de risico's die gepaard gaan met het gebruik van ChatGPT te beperken.

Wat voor soort vertrouwelijke informatie is uitgelekt?

Hoe vaak hebben werknemers van Samsung vertrouwelijke gegevens gelekt naar ChatGPT?

Volgens de zoekresultaten hebben medewerkers van Samsung vertrouwelijke bedrijfsinformatie gelekt naar ChatGPT op minstens drie gelegenheden.

Gerelateerde Artikelen

Bekijk meer >>

Ontgrendel de kracht van AI met HIX.AI!