Trong khi sử dụng ChatGPT, nhân viên của Samsung đã làm rò rỉ thông tin bí mật của công ty, một báo cáo từ The Economist Korea cho biết. Sau khi bộ phận sản xuất chip của Samsung bật đèn xanh cho các kỹ sư sử dụng bot trò chuyện của OpenAI, các nhân viên đã chia sẻ mã nguồn nhạy cảm và bản ghi cuộc họp để phục vụ công việc của họ. Từ đó nhiều tài liệu quan trọng, mã nguồn quan trọng đã bị lộ ra ngoài. Giờ đây, Samsung được cho là đang hạn chế nhân viên sử dụng ChatGPT và cố gắng xây dựng bot của riêng mình.
Với ChatGPT, khi bạn cung cấp càng nhiều thông tin, bộ não AI của nó càng phát triển. Chính sách dữ liệu của nền tảng này cho phép OpenAI tận dụng các thông tin của người dùng để đào tạo bot của họ (trừ khi họ chọn không tham gia).
OpenAI kêu gọi người dùng không chia sẻ thông tin cá nhân với ChatGPT vì nó có thể sử dụng dữ liệu này để phản hồi cho người khác. Nhưng các cuộc khảo sát gần đây cho thấy rằng ChatGPT đã được sử dụng rộng rãi bởi các công nhân doanh nghiệp. Trong khi đó, Microsoft đang kết hợp ChatPGT vào hệ sinh thái Office như Word và Excel.
Samsung không phải là công ty khổng lồ duy nhất “toát mồ hôi” vì các cuộc trò chuyện của nhân viên với ChatGPT. Những công ty khổng lồ như JP Morgan, Verizon, và Goldman Sachs đã chặn quyền truy cập của nhân viên vào ChatGPT, trong khi Amazon và Walmart đã đưa ra cảnh báo không chia sẻ thông tin nhạy cảm với công cụ này.
Trong khi đó, Ý đã cấm ChatPGT, ít nhất là cho đến thời điểm hiện tại, nói rằng công cụ này đã thu thập dữ liệu cá nhân - và các quốc gia EU khác cũng đang xem xét hạn chế ChatPGT vì lo ngại về quyền riêng tư dữ liệu.
NHƯ VẬY LÀ:
Các công cụ mới cần các quy tắc mới. Gần một nửa doanh nghiệp đang nỗ lực soạn thảo các hướng dẫn sử dụng ChatGPT, vì các mối đe dọa bảo mật trong quá trình sử dụng của nhân viên. Trong khi đó, chính quyền Mỹ đang tìm hiểu xem có cần áp đặt các quy tắc đối với các nền tảng AI tương tự hay không, bao gồm cả việc liệu có cần phải có quy trình chứng nhận trước khi phát hành hay không.