Tỷ giá Bitcoin BTC BTC
63031 $
0.12%
Tỷ giá Ethereum ETH ETH
2595 $
0.23%
Tỷ giá Tether USDt USDT USDT
1,00 $
-0.02%
Tỷ giá BNB BNB BNB
585,92 $
0.37%
Tỷ giá Solana SOL SOL
147,22 $
0.03%
Tỷ giá USD Coin USDC USDC
1,00 $
0.01%
Tỷ giá USDC USDC USDC
1,00 $
-0.01%
Tỷ giá XRP XRP XRP
0,5966 $
0.11%
Tỷ giá Dogecoin DOGE DOGE
0,1081 $
0.14%
Tỷ giá Toncoin TON TON
5,66 $
0.02%
Tỷ giá TRON TRX TRX
0,1518 $
0.10%
Tỷ giá Cardano ADA ADA
0,3543 $
0.24%
Tỷ giá Avalanche AVAX AVAX
27,33 $
-0.24%
Tỷ giá Shiba Inu SHIB SHIB
0,0000 $
0.05%
Tỷ giá Chainlink LINK LINK
11,32 $
0.14%
Tỷ giá Bitcoin Cash BCH BCH
342,32 $
0.02%
Tỷ giá Polkadot DOT DOT
4,40 $
0.66%
Tỷ giá Dai DAI DAI
1,00 $
-0.00%
Tỷ giá UNUS SED LEO LEO LEO
5,74 $
0.24%
Tỷ giá NEAR Protocol NEAR NEAR
4,53 $
0.08%
  1. Home iconBạn đang ở:
  2. Trang chủ
  3. Tin tức tiền điện tử
  4. Người đầu tiên trong số đông? làm thế nào lệnh cấm ChatGPT của Ý có thể kích hoạt một làn sóng quy định về AI

Người đầu tiên trong số đông? làm thế nào lệnh cấm ChatGPT của Ý có thể kích hoạt một làn sóng quy định về AI

13/04/2023 20:15 read92
Người đầu tiên trong số đông? làm thế nào lệnh cấm ChatGPT của Ý có thể kích hoạt một làn sóng quy định về AI

Việc vi phạm dữ liệu và thiếu minh bạch đã khiến Ý cấm ChatGPT, chatbot phổ biến do AI cung cấp, làm dấy lên cuộc tranh luận về tương lai của quy định và đổi mới AI.

Ý gần đây đã gây chú ý khi trở thành quốc gia phương Tây đầu tiên cấm chatbot phổ biến được hỗ trợ bởi trí tuệ nhân tạo (AI) ChatGPT.

Cơ quan bảo vệ dữ liệu của Ý (IDPA) đã ra lệnh cho OpenAI, công ty đứng sau ChatGPT có trụ sở tại Hoa Kỳ, ngừng xử lý dữ liệu của người dùng Ý cho đến khi dữ liệu đó tuân thủ Quy định bảo vệ dữ liệu chung (GDPR), luật về quyền riêng tư của người dùng ở Liên minh Châu Âu.

IDPA viện dẫn những lo ngại về việc dữ liệu bị rò rỉ làm lộ các cuộc hội thoại và thông tin thanh toán của người dùng, sự thiếu minh bạch cũng như cơ sở pháp lý để thu thập và sử dụng dữ liệu cá nhân nhằm huấn luyện chatbot.

Quyết định này đã gây ra một cuộc tranh luận về tác động của quy định AI đối với sự đổi mới, quyền riêng tư và đạo đức. Động thái của Ý đã bị chỉ trích rộng rãi, Phó Thủ tướng Matteo Salvini nói rằng đó là hành động không tương xứng và đạo đức giả, vì hàng chục dịch vụ dựa trên AI như Bing chat vẫn đang hoạt động ở nước này.

Salvini cho biết lệnh cấm có thể gây hại cho hoạt động kinh doanh và đổi mới quốc gia, cho rằng mọi cuộc cách mạng công nghệ đều mang lại những thay đổi, rủi ro và cơ hội lớn.

AI và rủi ro về quyền riêng tư

Trong khi lệnh cấm hoàn toàn ChatGPT của Ý bị chỉ trích rộng rãi trên các kênh truyền thông xã hội, một số chuyên gia lập luận rằng lệnh cấm có thể hợp lý. Phát biểu với Cointelegraph, Aaron Rafferty, Giám đốc điều hành của tổ chức tự trị phi tập trung StandardDAO, cho biết lệnh cấm có thể hợp lý nếu nó gây ra những rủi ro về quyền riêng tư không thể kiểm soát được.

Rafferty nói thêm rằng việc giải quyết các thách thức lớn hơn về quyền riêng tư của AI, chẳng hạn như xử lý dữ liệu và tính minh bạch, có thể hiệu quả hơn là tập trung vào một hệ thống AI duy nhất. Ông lập luận rằng động thái này khiến Ý và các công dân của nước này rơi vào thế yếu trong cuộc chạy đua vũ trang AI, đây cũng là điều mà Hoa Kỳ hiện đang phải vật lộn.

Gần đây: Shapella có thể đưa các nhà đầu tư tổ chức đến với Ethereum bất chấp rủi ro

Vincent Peters, cựu sinh viên Starlink và là người sáng lập dự án Token không thể thay thế Nghệ thuật kế thừa, nói rằng lệnh cấm là hợp lý, chỉ ra rằng GDPR là một bộ quy định toàn diện được áp dụng để giúp bảo vệ dữ liệu của người tiêu dùng và thông tin nhận dạng cá nhân.

Peters, người dẫn đầu nỗ lực tuân thủ GDPR của Starlink khi nó được triển khai trên khắp lục địa, đã nhận xét rằng các quốc gia châu Âu tuân thủ luật về quyền riêng tư rất coi trọng điều đó, nghĩa là OpenAI phải có khả năng trình bày hoặc chứng minh cách thông tin cá nhân được sử dụng và không được sử dụng . Tuy nhiên, anh ấy đồng ý với Salvini, nói rằng:

Cũng như ChatGPT không nên bị loại trừ, ChatGPT cũng không nên bị loại trừ khỏi việc phải giải quyết các vấn đề về quyền riêng tư mà hầu hết mọi dịch vụ trực tuyến đều cần giải quyết.

Nicu Sebe, người đứng đầu bộ phận AI tại công ty trí tuệ nhân tạo Humans.ai và là giáo sư máy học tại Đại học Trento ở Ý, nói với Cointelegraph rằng luôn có một cuộc chạy đua giữa sự phát triển của công nghệ và các khía cạnh đạo đức và quyền riêng tư tương quan của nó.

Quy trình làm việc của ChatGPT. Nguồn: OpenAI

Sebe cho biết cuộc đua không phải lúc nào cũng đồng bộ và trong tình huống này, công nghệ đang dẫn đầu, bất chấp việc anh tin rằng các khía cạnh đạo đức và quyền riêng tư sẽ sớm bắt kịp. Hiện tại, lệnh cấm có thể hiểu được để OpenAI có thể điều chỉnh theo các quy định địa phương về quản lý dữ liệu và quyền riêng tư.

Sự không phù hợp không chỉ xảy ra ở Ý. Các chính phủ khác đang phát triển các quy tắc riêng cho AI khi thế giới tiếp cận trí thông minh nhân tạo chung, một thuật ngữ dùng để mô tả một AI có thể thực hiện bất kỳ nhiệm vụ trí tuệ nào. Vương quốc Anh đã công bố các kế hoạch điều chỉnh AI, trong khi EU dường như đang có lập trường thận trọng thông qua Đạo luật Trí tuệ nhân tạo hạn chế rất nhiều việc sử dụng AI trong một số lĩnh vực quan trọng như thiết bị y tế và xe tự hành.

Đã có tiền lệ chưa?

Ý có thể không phải là quốc gia cuối cùng cấm ChatGPT. Quyết định cấm ChatGPT của IDPA có thể tạo tiền lệ cho các quốc gia hoặc khu vực khác noi theo, điều này có thể có ý nghĩa quan trọng đối với các công ty AI toàn cầu. StandardDAO Rafferty đã nói:

Quyết định của Ý có thể tạo tiền lệ cho các quốc gia hoặc khu vực khác, nhưng các yếu tố cụ thể về quyền tài phán sẽ quyết định cách họ phản ứng với các mối lo ngại về quyền riêng tư liên quan đến AI. Nhìn chung, không quốc gia nào muốn bị tụt lại phía sau về tiềm năng phát triển của AI.

Jake Maymar, phó chủ tịch phụ trách đổi mới của nhà cung cấp phần mềm thực tế ảo và thực tế tăng cường The Glimpse Group, cho biết động thái này sẽ tạo tiền lệ bằng cách thu hút sự chú ý đến những thách thức liên quan đến AI và chính sách dữ liệu, hoặc việc thiếu chính sách đó.

Đối với Maymar, thảo luận công khai về những vấn đề này là một bước đi đúng hướng, vì phạm vi quan điểm rộng hơn giúp nâng cao khả năng hiểu toàn bộ phạm vi tác động của chúng ta. Inheritance Art Peters đồng ý, nói rằng động thái này sẽ tạo tiền lệ cho các quốc gia khác thuộc GDPR.

Đối với những quốc gia không thực thi GDPR, nó đặt ra một khuôn khổ trong đó các quốc gia này nên xem xét cách OpenAI đang xử lý và sử dụng dữ liệu người tiêu dùng. Đại học Trento Sebe tin rằng lệnh cấm xuất phát từ sự khác biệt giữa luật pháp Ý về quản lý dữ liệu và những gì thường được cho phép ở Hoa Kỳ.

Cân bằng đổi mới và quyền riêng tư

Rõ ràng là những người chơi trong lĩnh vực AI cần phải thay đổi cách tiếp cận của họ, ít nhất là ở Liên minh Châu Âu, để có thể cung cấp dịch vụ cho người dùng trong khi vẫn đứng về phía các cơ quan quản lý. Nhưng làm thế nào họ có thể cân bằng giữa nhu cầu đổi mới với những lo ngại về quyền riêng tư và đạo đức khi phát triển sản phẩm của mình?

Đây không phải là một câu hỏi dễ trả lời, vì có thể có những đánh đổi và thách thức liên quan đến việc phát triển các sản phẩm AI tôn trọng quyền của người dùng.

Joaquin Capozzoli, Giám đốc điều hành của nền tảng trò chơi Web3 Mendax, nói rằng có thể đạt được sự cân bằng bằng cách kết hợp các biện pháp bảo vệ dữ liệu mạnh mẽ, tiến hành đánh giá đạo đức kỹ lưỡng và tham gia đối thoại cởi mở với người dùng và cơ quan quản lý để chủ động giải quyết các mối lo ngại.

StandardDAO Rafferty tuyên bố rằng thay vì chỉ chọn ChatGPT, cần có một cách tiếp cận toàn diện với các tiêu chuẩn và quy định nhất quán cho tất cả các công nghệ AI và các công nghệ truyền thông xã hội rộng lớn hơn.

Cân bằng đổi mới và quyền riêng tư liên quan đến việc ưu tiên tính minh bạch, kiểm soát người dùng, bảo vệ dữ liệu mạnh mẽ và các nguyên tắc về quyền riêng tư theo thiết kế. Rafferty cho biết hầu hết các công ty nên hợp tác theo một cách nào đó với chính phủ hoặc cung cấp các khuôn khổ nguồn mở để tham gia và phản hồi.

Sebe ghi nhận các cuộc thảo luận đang diễn ra về việc liệu công nghệ AI có gây hại hay không, bao gồm một bức thư ngỏ gần đây kêu gọi ngừng phát triển công nghệ này trong sáu tháng để cho phép phân tích nội tâm sâu hơn về những hậu quả tiềm ẩn của nó. Bức thư đã thu hút được hơn 20.000 chữ ký, bao gồm các nhà lãnh đạo công nghệ như Giám đốc điều hành Tesla Elon Musk, đồng sáng lập Apple Steve Wozniak và đồng sáng lập Ripple Chris Larsen — trong số nhiều người khác.

Bức thư nêu lên mối lo ngại hợp lý đối với Sebe, nhưng việc dừng sáu tháng như vậy là không thực tế. Anh nói thêm:

Để cân bằng giữa nhu cầu đổi mới với những lo ngại về quyền riêng tư, các công ty AI cần áp dụng các biện pháp bảo mật và chính sách bảo mật dữ liệu nghiêm ngặt hơn, đảm bảo tính minh bạch trong việc thu thập và sử dụng dữ liệu cũng như xin phép người dùng để thu thập và xử lý dữ liệu.

Sự tiến bộ của trí tuệ nhân tạo đã làm tăng khả năng thu thập và phân tích lượng dữ liệu cá nhân đáng kể, ông nói, làm dấy lên lo ngại về quyền riêng tư và giám sát. Đối với anh ấy, các công ty có nghĩa vụ phải minh bạch về các hoạt động thu thập và sử dụng dữ liệu của họ, đồng thời thiết lập các biện pháp bảo mật mạnh mẽ để bảo vệ dữ liệu người dùng.

Các mối quan tâm về đạo đức khác cần được xem xét bao gồm các thành kiến tiềm ẩn, trách nhiệm giải trình và tính minh bạch, Sebe cho biết, vì các hệ thống AI có khả năng làm trầm trọng thêm và giữ các định kiến xã hội đã tồn tại từ trước, dẫn đến việc đối xử phân biệt đối xử với các nhóm cụ thể.

Mendax Capozzoli cho biết công ty tin rằng trách nhiệm chung của các công ty AI, người dùng và cơ quan quản lý là phải hợp tác cùng nhau để giải quyết các mối quan tâm về đạo đức và tạo ra một khuôn khổ khuyến khích đổi mới đồng thời bảo vệ quyền cá nhân.

Gần đây: Luật sư Pro-XRP John Deaton 'thêm gấp 10 lần vào BTC, gấp 4 lần vào ETH': Hall of Flame

Nhóm Glimpse Maymar đã tuyên bố rằng các hệ thống AI như ChatGPT có tiềm năng vô hạn và có thể gây hại nghiêm trọng nếu bị lạm dụng. Ông nói thêm: “Đối với các công ty đứng sau các hệ thống như vậy để cân bằng mọi thứ, họ phải nhận thức được các công nghệ tương tự và phân tích xem họ gặp vấn đề ở đâu và họ đã thành công ở đâu”.

Theo Maymar, các mô phỏng và thử nghiệm cho thấy các lỗ hổng trong hệ thống; do đó, các công ty AI dường như nên cố gắng đổi mới, minh bạch và có trách nhiệm giải trình.

Họ nên chủ động xác định và giải quyết các rủi ro và tác động tiềm ẩn của sản phẩm đối với quyền riêng tư, đạo đức và xã hội. Bằng cách làm như vậy, họ có thể sẽ tạo dựng được lòng tin và sự tin tưởng giữa người dùng và cơ quan quản lý, tránh — và có khả năng đảo ngược — số phận của ChatGPT ở Ý.

Theo CoinTelegraph

Chia sẻ bài viết này với bạn bè qua Facebook / Zalo / Telegram:

Tags: Trí tuệ nhân tạo, Ý, Châu Âu, Liên minh Châu Âu, Pháp luật, Chính phủ,