10 cách tập đoàn công nghệ lớn dùng để thay đổi hàng triệu phiếu bầu mà không ai biết
Một nhà nghiên cứu danh tiếng đã mô tả 10 cách mà Google, Facebook và các công ty khác có thể thay đổi hàng triệu phiếu bầu trong cuộc bầu cử giữa nhiệm kỳ của Mỹ sắp tới.
Các nhà chức trách ở Anh cuối cùng đã phát hiện rằng những câu chuyện tin giả và quảng cáo được Nga sắp đặt không phải là vấn đề thực sự. Nghị viện Vương quốc Anh sắp áp đặt các hình phạt nghiêm khắc- không phải lên những người quảng cáo hay viết ra những câu chuyện, mà trên nền tảng ứng dụng của các Big Tech đã xác nhận những mẫu quảng cáo và câu chuyện như mọi người hiện nay thấy.
Vụ rò rỉ mới nhất về tài liệu kết tội từ nội bộ pháo đài bí mật của Google đã tiếp thêm năng lượng cho các kế hoạch của Quốc hội Anh: Gần đây tạp chí Wall Street đưa tin về các email do những nhân viên Google gửi cho nhau vào tháng 1/2017, trong đó họ đã lên chiến lược thay đổi kết quả tìm kiếm của Google và các kết quả “tìm kiếm tạm thời” khác để chống lại sắc lệnh cấm nhập cảnh của ông Trump {đối với công dân từ 7 nước Hồi giáo, nhằm chống khủng bố thâm nhập nước Mỹ, ngày 27/1/2017}. Google tuyên bố rằng họ không cho thi hành chiến lược nào kể trên, nhưng ai biết được chứ?
Nhà chức trách Mỹ chỉ đơn thuần nghe theo lời biện hộ của các công ty này, còn các cơ quan chức năng của EU trong những năm gần đây đã có những bước hành động đáng kể để hạn chế quyền hạn của Big Tech, gần đây nhất là bộ luật toàn diện bảo vệ quyền riêng tư của người dùng – Quy định bảo vệ dữ liệu chung và số tiền phạt khổng lồ 5,1 tỷ USD cho Google vì hoạt động độc quyền trong thị trường thiết bị di động. Năm ngoái, Liên minh châu Âu cũng phạt Google 2,7 tỷ USD vì sàng lọc và sắp xếp kết quả tìm kiếm theo kiểu ưu tiên sản phẩm dịch vụ của họ. Sàng lọc và sắp xếp như vậy, hóa ra, có tính quyết định rất quan trọng.
Nhiều năm nghiên cứu về ảnh hưởng trực tuyến, tôi đã thấy rằng, ngày nay nội dung của từng bài viết không thực sự đe dọa; thực sự quan trọng là nội dung nào được chọn để người dùng nhìn thấy và cách thức sắp xếp nội dung trong kết quả tìm kiếm, đề xuất tìm kiếm, nội dung chính giữa trang chủ, nguồn cấp tin nhắn, danh sách bình luận, v.v. Đó là loại quyền lực cho phép nói dối bạn để thay đổi quan điểm khi mua hàng và bỏ phiếu, và loại quyền lực đó nằm trong tay một nhóm người cực kỳ nhỏ.
Tôi nói “hiện nay” do một số ít nền tảng khổng lồ trên internet phát triển bùng nổ – lớn nhất đến nay là Google và tiếp theo là Facebook — nên mọi thứ đã thay đổi. Hàng triệu cá nhân và tổ chức không ngừng cố làm nội dung thu hút trong mắt chúng ta, nhưng với hơn 2,5 tỷ người dùng khắp thế giới – sẽ nhanh chóng là 4 tỷ – các thuật toán của Google và Facebook sẽ xác định nội dung nào được xem và vị trí nó xuất hiện trong các danh sách khác nhau.
Trong các nghiên cứu ngẫu nhiên, có kiểm soát, và bình duyệt mà tôi thực hiện với hàng nghìn người, tôi thấy rõ nhiều lần rằng khi người ta do dự chưa quyết định, tôi có thể chuyển đổi quan điểm của họ về bất kỳ chủ đề nào bằng cách thay đổi cách sắp xếp và sàng lọc thông tin cho họ nhìn thấy. Tôi cũng thấy rõ, trong nhiều tìm kiếm, tôi cho người ta thấy nhiều thông tin hơn để ủng hộ một ứng cử viên, tôi có thể thậm chí xa hơn nữa là chuyển đổi quan niệm của họ. Thậm chí còn đáng lo ngại hơn, tôi có thể làm như thế theo các cách hoàn toàn vô hình không để lại dấu vết nào để các nhà chức trách theo dõi.
Tệ hơn nữa, những hình thức gây ảnh hưởng mới này thường dựa vào nội dung thông tin tạm thời, được nhanh chóng tạo ra bằng thuật toán và sau đó biến mất vĩnh viễn, nghĩa là sẽ rất khó hoặc có thể nói là không thể, để các nhà chức trách tái tạo lại bằng chứng. Nếu vào ngày bầu cử tháng 11 tới, Mark Zuckerberg quyết định phát tán những lời nhắc đi bỏ phiếu chủ yếu cho các thành viên của một đảng phái chính trị nào đó, làm sao chúng ta có thể phát hiện ra sự thao túng như vậy? Nếu chúng ta không thể phát hiện ra thì làm sao có thể giảm tác động của nó? Rồi sau vài ngày hay vài tuần, làm thế nào để chúng ta có thể quay ngược thời gian xem chuyện gì đã xảy ra?
Tất nhiên, các công ty như Google và Facebook dứt khoát chối bỏ ý kiến rằng các thuật toán tìm kiếm và nguồn cấp tin tức của họ đang được tinh chỉnh theo cách nào đó để có thể can thiệp vào cuộc bầu cử. Người phát ngôn cho biết, làm như vậy sẽ làm suy giảm niềm tin của công chúng. Họ nhấn mạnh, các thuật toán của họ rất phức tạp, liên tục thay đổi và tùy thuộc vào hoạt động “hữu cơ” của người dùng.
Tất nhiên, lời biện hộ hoàn toàn vô lý. Google có thể điều chỉnh thuật toán của mình để ưu tiên bất kỳ ứng cử viên nào mà nó chọn bất kể hoạt động của người dùng là gì đi nữa, và cũng dễ dàng như cách tôi thực hiện trong các thử nghiệm của mình. Như luật gia Frank Pasquale nhấn mạnh trong cuốn sách gần đây “Chiếc hộp đen của mạng xã hội” (The Black Box Society), đổ lỗi cho thuật toán là không chấp nhận được; thuật toán nên hoạt động như thế nào luôn là trách nhiệm của người viết thuật toán và công ty triển khai thuật toán. Alan Murray, chủ tạp chí Fortune, gần đây đã trình bày sâu sắc vấn đề: “Quy tắc trong thời đại của trí thuệ nhân tạo là: Con người vẫn chịu trách nhiệm cho các quyết định, ngay cả khi quyết định đó được máy móc thực hiện”.
Do 95% những quyên góp từ Thung lũng Silicon thường dành cho phe Dân chủ, nên cũng thật khó tưởng tượng rằng các thuật toán của các công ty như Facebook và Google không ủng hộ các ứng cử viên họ yêu thích. Video mới bị rò rỉ về cuộc họp năm 2016 của Google cho thấy chắc chắn các giám đốc điều hành cấp cao của Google đều ưu tiên cho một chính trị gia quyền lực, và có thể dễ dàng được biểu lộ trong các thuật toán. Sự thiên vị có thể được cố ý lập trình hoặc xảy ra chỉ vì thiên vị vô ý thức. Dù sao đi nữa thì phiếu bầu và quan điểm người dùng sẽ bị thay đổi.
Trong bất kỳ cuộc bầu cử nào trên thế giới, có hay không quyết tâm của một bộ phận nhân viên Google, thì cũng khó hình dung làm thế nào mà kết quả tìm kiếm của Google không nghiêng về một ứng cử viên nào đó. Thuật toán tìm kiếm của Google chắc chắn không áp dụng “Quy tắc thời gian bình đẳng” (rằng các đài phát thanh và truyền hình của Hoa Kỳ phải cho tất cả các ứng cử viên có cơ hội tương đương) được tích hợp sẵn. Chúng ta không muốn thế! Chúng ta muốn nó cho chúng ta biết điều gì là tốt nhất, nhưng thuật toán thực sự sẽ luôn ưu tiên một loại thức ăn cho chó nào đó hơn một loại thức ăn khác, một dịch vụ âm nhạc nào đó hơn một dịch vụ khác và một ứng cử viên chính trị này hơn ứng viên khác. Khi những điều đó xảy ra, phiếu bầu và ý kiến sẽ thay đổi.
Dưới đây là 10 cách – 7 trong số đó tôi đã tích cực nghiên cứu và định lượng – kết quả cho thấy các công ty Big Tech có thể sử dụng để chuyển đổi hàng triệu phiếu bầu vào tháng 11 tới này mà không ai nhận ra. Hãy hy vọng và trông mong rằng những phương pháp này không được dùng đến và sẽ không bao giờ được dùng, nhưng chúng ta cũng nên thực tế; thông thường khi mập mờ giữa tiền và quyền, con người sẽ không giới hạn những gì mình sẽ làm.
1. Hiệu ứng thao tác công cụ tìm kiếm (SEME)
Nghiên cứu mà tôi đang thực hiện, bắt đầu vào tháng 1/2013 nhiều lần cho thấy khi một ứng cử viên được ưu tiên hơn ứng viên khác trong kết quả tìm kiếm, thì sự ưu tiên biểu quyết trong số các cử tri đang do dự thay đổi đáng kể – từ 20% tổng thể trở lên và có tới 80% ở vài nhóm nhân khẩu học. Điều này một phần vì người ta tin tưởng quá mức vào kết quả do thuật toán đưa ra, vỗn dĩ họ nhầm lẫn rằng các thuật toán khách quan và công bằng.
Nhưng nghiên cứu của tôi cũng cho thấy chúng ta bị đặt vào hoàn cảnh để tin tưởng những kết quả tìm kiếm có thứ hạng cao tương tự như những con chuột bị điều chỉnh để nhấn đòn bẩy trong hộp Skinner (một thiết bị phòng thí nghiệm được sử dụng để nghiên cứu hành vi của động vật). Bởi vì đa số các từ khóa tìm kiếm là những sự kiện đơn giản, như: “Donald Trump sinh năm nào?”, và bởi vì câu trả lời đúng cho những câu hỏi đơn giản chắc chắn sẽ xuất hiện ở vị trí đầu tiên, ngày này qua tháng nọ, chúng ta được bảo rằng kết quả tìm kiếm càng ở trên cao trong danh sách thì càng đáng tin. Sau cùng khi muốn tìm kiếm thông tin để giúp đưa ra quyết định chính xác cho bầu cử tổng thống, ví dụ: “Ai tốt hơn đối với nền kinh tế, Trump hay Clinton?”, thì chúng ta thường có xu hướng tin vào thông tin trên các trang web có kết quả tìm kiếm xếp hạng trên cao.
Như tờ Washington Post đưa tin năm ngoái, năm 2016, tôi đã chỉ đạo nhóm phát triển hệ thống theo dõi kết quả tìm kiếm liên quan đến bầu cử mà Google, Bing và Yahoo đang hiển thị cho người dùng trong những tháng chuẩn bị cho bầu cử tổng thống và tôi đã tìm thấy ứng viên Clinton được thiên vị xuất hiện trong tất cả 10 vị trí đầu trang kết quả tìm kiếm của Google. Như thường lệ, Google trả lời rằng họ “không bao giờ xếp hạng lại kết quả tìm kiếm về bất kỳ chủ đề nào (kể cả bầu cử) để thao túng ý kiến chính trị”, nhưng tôi chưa bao giờ công nhận điều họ nói. Tôi đã tự phát hiện ra kết quả tìm kiếm của Google thiên vị cho Hillary Clinton. “Xếp hạng lại” – thuật ngữ ngớ ngẩn có lẽ do Google nghĩ ra để làm người ta nhầm lẫn — không thuyết phục.
Bởi vì:
– Nhiều cuộc bầu cử đến rất gần
– 90% tìm kiếm trực tuyến ở hầu hết các nước chỉ được thực hiện trên Google
– Ngày nay Internet thâm nhập ở phần lớn các nước nhiều hơn cả ở Hoa Kỳ
Thế nên, có khả năng kết quả các cuộc bầu cử của các nước trên thế giới hiện đang được thuật toán tìm kiếm của Google định rõ sẽ tăng lên 25%, thậm chí nhân viên của Google không cần cố ý thao túng. Bởi vì, như tôi từng nhấn mạnh, thuật toán tìm kiếm của Google không bị ràng buộc bởi “Quy tắc thời gian bình đẳng”, kết quả họ đưa ra gần như chắc chắn sẽ ưu tiên ứng cử viên này hơn ứng cử viên khác trong hầu hết các cuộc đua chính trị và sẽ làm người dùng thay đổi quan điểm và phiếu bầu.
>>> Dự án Dragonfly của Google tạo điều kiện cho TQ tăng cường kiểm duyệt người dân
>>> Tổng thống Trump cảnh báo Google, Facebook và Twitter: Không nên lợi dụng người dân
2. Hiệu ứng gợi ý tìm kiếm (SSE)
Khi lần đầu Google giới thiệu các đề xuất tìm kiếm tự động hoàn thành — những danh sách ngắn mà bạn thấy khi bắt đầu nhập cụm từ vào thanh tìm kiếm — được cho là tiết kiệm thời gian của bạn. Bất kể lý do căn bản ban đầu là gì, thì những gợi ý đó sẽ sớm trở thành phương tiện mạnh mẽ để thao túng kết quả tìm kiếm, nên có vẻ Google khá xông xáo dùng nó.
Nghiên cứu gần đây của tôi cho thấy, Google bắt đầu thao túng ý kiến của bạn từ lúc bạn nhập ký tự đầu tiên bằng cách hiển thị những gợi ý cho bạn, Google có thể chuyển đổi tỷ lệ 50-50 trong số cử tri đang do dự thành tỷ lệ 90-10 mà không ai hay. Tôi gọi thao tác này là Hiệu ứng gợi ý tìm kiếm (SSE), và nó là một trong những cách thao túng hành vi mạnh mẽ nhất tôi từng thấy trong gần 40 năm kinh nghiệm là nhà khoa học hành vi.
Làm sao để biết liệu Google có đang gây rối với các đề xuất tìm kiếm liên quan đến bầu cử trong những tuần chuẩn bị tuyển cử không? Tất nhiên là bạn sẽ không biết.
3. Hiệu ứng tin nhắn được nhắm mục tiêu (TME)
Giả sử ngày 8/11/2016, Zuckerberg chỉ gửi lời nhắc nhở đi bỏ phiếu cho những người ủng hộ bà Clinton, thì trông giống như trao cho bà thêm 450.000 phiếu bầu. Tôi đã ngoại suy con số đó từ dữ liệu công khai của Facebook.
Vì Zuckerberg quá tự tin vào năm 2016, tôi không nghĩ anh ấy đã gửi những tin nhắn đó, nhưng lúc này chắc chắn anh không thể tự tin thái quá. Trên thực tế, có thể vào thời điểm này, Facebook và các công ty khác đang gửi các lời nhắc đăng ký bỏ phiếu được nhắm mục tiêu, cũng như các lời nhắc đi bỏ phiếu được nhắm mục tiêu trong các cuộc đua quan trọng. Lời nhắc bỏ phiếu được nhắm mục tiêu cũng có thể ủng hộ một đảng nào đó vào ngày bầu cử tháng 11 tới.
Tôi và cộng sự đang xây dựng các hệ thống theo dõi những hành động dạng này, nhưng vì hiện tại không có hệ thống nào có đủ khả năng, nên không có cách nào chắc chắn để biết liệu Twitter, Google, Facebook và Instagram hiện có đưa ra những thông điệp nghiêng về bên nào hay không. Không có luật lệ hoặc quy định đặc biệt cấm những hành động này, và nó sẽ là cách dễ dàng và tiết kiệm để đáp ứng yêu cầu của công ty. Chiến dịch tranh cử rất tốn kém, tuy nhiên với việc gửi đi thông điệp để ủng hộ ứng cử viên nào đó thì miễn phí.
4. Hiệu ứng kết hợp ý kiến (OME)
Tháng 3/2016 và tiếp tục hơn 7 tháng cho đến ngày bầu cử, hàng chục triệu người dùng ứng dụng “nhịp cầu hẹn hò” Tinder không chỉ có thể vuốt màn hình để tìm bạn tâm tình mà còn có thể tìm hiểu xem nên bầu cho Trump hay Clinton. Trang web iSideWith.com — được “hai người bạn” thành lập và điều hành mà không có tiêu chuẩn rõ ràng – họ tuyên bố đã giúp hơn 49 triệu người dùng kết hợp quan điểm với ứng viên phù hợp. Cả CNN và USA Today đều có các dịch vụ tương tự, nhưng hiện không hoạt động.
Tôi vẫn đang nghiên cứu và thẩm định loại dịch vụ này, nó hữu ích nhưng cho đến nay có vẻ như các dịch vụ kết hợp quan điểm có xu hướng muốn thu hút các cử tri chưa ra quyết định – chính xác đó là các cử tri dễ bị thao túng nhất, và các dịch vụ đó có thể dễ dàng làm cho quan điểm thay đổi từ 30% trở lên mà người ta không nhận thức ra.
Trong bài viết này, iSideWith đã giúp người ta quyết định nên bỏ phiếu cho ai trong cuộc bầu cử Thượng viện New York năm 2018, cuộc bầu cử thống đốc bang New York 2018, cuộc bầu cử cho Quận 10 New York của Hạ viện Hoa kỳ 2018, và bạn có tin hay không, sẽ có cả cuộc bầu cử tổng thống năm 2020. Bạn hãy dõi mắt vào các dịch vụ kết hợp khác khi chúng xuất hiện, và tự hỏi: Ai đã viết những thuật toán đó, và làm sao chúng ta có thể biết liệu chúng có thiên vị cho ứng cử viên hay đảng nào hay không?
5. Hiệu ứng trả lời robot mạng (ABE)
Ngày nay, ngày càng có nhiều người không muốn xem danh sách hàng nghìn kết quả tìm kiếm, họ chỉ muốn câu trả lời được trợ lý cá nhân cung cấp như thiết bị Google Home, Trợ lý Google trên thiết bị Android, Alexa của Amazon, Siri của Apple và featured snippets của Google — đó là đoạn trích câu trả lời ở đầu kết quả tìm kiếm của Google. Tôi gọi sự thay đổi quan điểm được tạo ra bởi các cơ chế như vậy là hiệu ứng trả lời robot mạng (ABE).
Nghiên cứu của tôi về đoạn trích câu trả lời của Google cho thấy ba điều: Thứ nhất, giảm thời gian tìm kiếm thêm thông tin. Thứ hai, giảm số lần nhấp vào kết quả tìm kiếm. Và thứ ba, chúng được hiển thị để thay đổi quan điểm từ 10 – 30% so với chỉ có kết quả tìm kiếm. Tôi chưa biết chính xác có bao nhiêu phiếu bầu có thể được thay đổi bởi hình thức robot trả lời, nhưng trong một cuộc bầu cử quốc gia ở Hoa Kỳ, con số này có thể ở mức vài triệu.
6. Chặn nội dung bài đăng (Shadowbanning)
Gần đây, Trump phàn nàn rằng Twitter đã ngăn những người bảo thủ tiếp cận nhiều bài viết của người theo dõi họ trên Twitter thông qua cơ chế shadowbanning, bằng cách lặng lẽ ẩn bài đăng của người dùng mà không cho họ biết. Thực hư lời cáo buộc của Trump gây tranh cãi, nhưng thực tế là bất kỳ nền tảng nào mà người dùng có người theo dõi hoặc bạn bè, đều có thể bị gian lận bằng cách ngăn chặn quan điểm và ảnh hưởng của một số cá nhân mà không ai biết việc cấm chặn đang diễn ra. Thật không may, không có hệ thống giám sát những vi phạm này, thật khó để biết chắc chắn thao tác shadowbanning diễn ra khi nào và có diễn ra hay không.
7. Tính lan truyền được lập trình và hiệu ứng đoàn tàu kỹ thuật số
Các công ty Big Tech muốn chúng ta tin rằng các bài đăng đang lan truyền trên YouTube hay Instagram là hiện tượng hết sức bí ẩn, thậm chí còn muốn chúng ta công nhận rằng những nền tảng này có hàng chục triệu tài khoản giả mạo gây nên hiệu ứng lan truyền.
Thực ra, tình huống rõ ràng là tính lan truyền không có gì bí ẩn và đó là khi các công ty công nghệ tự họ quyết định chuyển khối lượng lưu lượng cao theo những cách phù hợp với nhu cầu của họ. Thuật toán của Facebook là bí mật nên nếu giám đốc điều hành quyết định ngay lập tức biến tài khoản Instagram của một sinh viên ủng hộ chính trị gia Elizabeth Warren lên hàng sao, chúng ta cũng không có cách nào biết rằng đây là một hành động có tính toán và không có cách nào chống trả. Và cũng vì hiệu ứng lan truyền có thể được cố tình thiết kế, nên có thể nó bị cố ý đàn áp, như giám đốc điều hành Facebook đã thừa nhận.
Có thể nói các video trên YouTube và các cuộc vận động trên Twitter có sự lan truyền tương tự; chúng vốn rất cạnh tranh – trừ khi nhân viên công ty hoặc giám đốc điều hành quyết định khác đi. Google có phương pháp đặc biệt hiệu quả và tinh tế tạo hiệu ứng lan truyền tức thời bằng cách sử dụng kỹ thuật mà tôi đặt tên là Hiệu ứng đoàn tàu kỹ thuật số. Bởi vì mức độ phổ biến của trang web làm chúng xuất hiện cao hơn trong kết quả tìm kiếm và vì kết quả tìm kiếm thứ hạng cao làm tăng tính phổ biến của trang web (SEME), Google có khả năng sắp đặt sự quan tâm bùng nổ đột ngột về một ứng cử viên hoặc lý lẽ để không ai phàn nàn về việc họ đã làm. Năm 2015, tôi đã xuất bản mô hình toán học cho thấy tính năng này có thể hoạt động gọn gàng ghế nào.
8. Hiệu ứng Facebook
Vì vô lý và không trung thực nên Facebook khiến nhiều người phản đối, từ đó có thể nó sẽ không bao giờ được ưa chuộng nữa, nó có giới hạn riêng trong danh sách của tôi.
Năm 2016, tôi đã công bố bài báo chi tiết về 5 cách Facebook có thể thay đổi hàng triệu phiếu bầu mà không ai biết, đó là: ưu tiên theo hộp xu hướng, ưu tiên trung tâm cập nhật tin tức, khuyến khích mọi người tìm kiếm tài liệu liên quan đến cuộc bầu cử trong thanh tìm kiếm, gửi các lời nhắc đăng ký bỏ phiếu và gửi các lời nhắc đi bỏ phiếu được nhắm mục tiêu.
Tôi đã viết bài đó trước khi các tờ báo vỡ lẽ việc Facebook chia sẻ dữ liệu người dùng trái phép với nhiều nhà nghiên cứu và công ty, chưa kể những chuyện về cách Facebook cho phép các tin giả tràn lan trên nền tảng của họ trong những ngày then chốt ngay trước cuộc bầu cử tháng 11— đó là các vấn đề mà Facebook hiện đang cố gắng hết sức để giảm thiểu. Với việc để lộ dữ liệu người dùng gia tăng, ngày 26/7/2018, Facebook là công ty đại chúng đầu tiên có tỷ lệ rớt giá cổ phiếu nhiều nhất chỉ trong một ngày từ trước đến nay và hiện đang đối mặt với vụ kiện cổ đông, và nhiều khoản tiền phạt cũng như điều tra ở cả Hoa Kỳ và EU.
Facebook rất cần hướng đi mới, đó là lý do tại sao gần đây tôi đã kêu gọi Zuckerberg từ chức. Theo quan điểm của tôi, Facebook có thể hưởng lợi từ những viễn cảnh mới thường thấy khi có lãnh đạo mới.
9. Kiểm duyệt
Bây giờ tôi đang gian lận khi dán nhãn cho một danh mục là “kiểm duyệt”, vì sự kiểm duyệt – chặn thông tin có chọn lọc và thiên vị – có thể được tạo ra theo nhiều cách khác nhau.
Ví dụ như “Hiệu ứng đoàn tàu” có thể được coi là một loại kiểm duyệt. Năm 2016, một người tố giác Facebook tuyên bố ông đã ở trong một nhóm của công ty này, và đã tìm cách loại bỏ một cách hệ thống những tin tức của phe bảo thủ từ nguồn cập nhật tin tức (newsfeed) của Facebook. Hiện nay, do sự bất cẩn của Facebook với dữ liệu người dùng, công ty đã kiêu hãnh công khai khóa nhanh những tài khoản có vẻ có liên quan đến Nga — mặc dù đại diện công ty đôi khi thừa nhận rằng họ “không biết tất cả những việc này”.
Trong khi đó, Zuckerberg đã khoe khoang về tính hào hiệp của mình khi bảo vệ những tài khoản của người phủ nhận cuộc diệt chủng của Đức Quốc Xã, mà không hề nhắc đến chuyện nội dung khiêu dâm thúc đẩy lưu lượng truy cập có thể làm cho anh ta ngày càng giàu hơn. Làm cách nào bạn biết liệu Facebook có đàn áp một cách chọn lọc tài liệu có lợi cho một ứng cử viên hay đảng chính trị nào không?, tất nhiên bạn sẽ không biết. (Để có cái nhìn chi tiết về chín cách Google kiểm duyệt nội dung, hãy xem bài tiểu luận của tôi “cách kiểm duyệt mới”, được xuất bản vào năm 2016).
10. Hiệu ứng tùy chỉnh kỹ thuật số (DCE)
Bất kỳ nhà tiếp thị nào cũng có thể giảng cho bạn việc thấu hiểu khách hàng quan trọng như thế nào. Bây giờ, hãy nghĩ về ý tưởng đơn giản đó trong một thế giới nơi Google có khả năng thu thập gần như hàng triệu trang văn bản các thông tin của bạn. Nếu bạn hiển thị ngẫu nhiên mẫu biểu ngữ quảng cáo trên trang web, trong số 10.000 người, chắc chỉ có 5 người nhấp vào, đạt tỷ lệ nhấp chuột 0,05%. Nhưng nếu bạn đầu tư cho quảng cáo, chỉ hiển thị quảng cáo cho những người có quan tâm phù hợp, bạn có thể tăng tỷ lệ nhấp chuột gấp 100 lần.
Đó là lý do tại sao Google, Facebook, và những công ty khác ngày càng bị ám ảnh với việc tùy chỉnh thông tin mà họ muốn cho bạn thấy: Họ muốn bạn vui vẻ và vô thức bấm vào nội dung của họ.
Trong nghiên cứu tôi tiến hành, tác động sẽ luôn lớn hơn khi tôi tùy chỉnh thông tin cho phù hợp với học vấn của người ta. Bởi vì tôi biết rất ít về những người tham gia thí nghiệm, tuy tôi có thể chỉ làm theo những cách lờ mờ, nhưng những gã khổng lồ công nghệ biết mọi thứ về bạn — ngay cả những điều bạn không biết về bản thân mình. Điều này cho tôi biết rằng mức độ hiệu quả mình nhận được trong các thử nghiệm có thể quá thấp. Các công ty như Google tác động lên cuộc sống của chúng ta có thể nhiều hơn so với những gì tôi nghĩ. Có lẽ điều đó không làm bạn sợ, nhưng nó chắc chắn làm tôi run sợ.
Cùng một hướng
Được rồi, có thể bạn sẽ nói sao mà nhiều chuyện quá! Còn những trò lừa bịp khác mà chúng ta đã nghe như: gian lận cử tri (lời giải thích của Trump về lý do tại sao ông thua về phiếu bầu phổ thông), sắp xếp gian lận khu vực bỏ phiếu, gian lận máy bỏ phiếu, Cambridge Analytica sắp xếp việc quảng cáo nhắm mục tiêu, phiếu bầu trên Internet, hoặc, như tôi đã đề cập trước đó, hàng triệu robot máy tính được thiết kế để thay đổi quan điểm. Còn về tin tặc như Andrés Sepúlveda, người đã dành gần một thập kỷ sử dụng công nghệ máy tính để gian lận bầu cử ở khu vực Mỹ Latin? Còn tất cả những phương pháp công nghệ mới khiển việc gian lận trong cuộc bầu cử dễ dàng hơn thì sao? Lại nữa, còn những người Nga đáng nguyền rủa thì sao?
Về tất cả những việc đó, tôi chỉ nói: đó là trò con nít. Những thủ đoạn thấp hèn đã xảy ra kể từ sau cuộc bầu cử đầu tiên được tổ chức cách đây hàng nghìn năm. Nhưng không giống như các công cụ thao túng mới được Google và Facebook kiểm soát, các thủ thuật cũ thật hiệu quả – hacker của bạn đấu với hacker của tôi, robot máy tính của bạn đấu với robot máy tính của tôi, tin giả của bạn đấu với tin giả của tôi – và đôi khi phạm pháp, đó là lý do tại sao những nỗ lực của Sepúlveda thất bại nhiều lần và lý do tại sao Cambridge Analytica bị phanh phui.
“Cyberwar” – cuốn sách mới của nhà khoa học chính trị Kathleen Hall Jamieson, nhắc nhở chúng ta rằng các quảng cáo được nhắm mục tiêu và những câu chuyện tin giả thực sự có thể thay đổi phiếu bầu, nhưng số phiếu bầu này tất nhiên là nhỏ. Thật khó để áp đảo đối thủ cạnh tranh khi họ cũng có thể chơi trò giống vậy.
Bây giờ, hãy xem qua danh sách tôi liệt kê. Các kỹ thuật tôi đã mô tả có thể thay đổi hàng triệu phiếu bầu mà không ai nhận ra bởi vì chúng được kiểm soát bởi chính nền tảng đó, chúng hoàn toàn không có cạnh tranh. Nếu Google hoặc Facebook hoặc Twitter muốn thay đổi phiếu bầu, không có cách nào để chống lại sự thao túng của họ. Thật vậy, trong bài viết này, thậm chí không có cách nào đáng tin cậy để phát hiện những trò thao túng đó.
Và điều gì sẽ xảy ra nếu các gã khổng lồ công nghệ có chung một khuynh hướng chính trị? Điều gì sẽ xảy ra nếu họ kết hợp sức mạnh thao túng tinh tế và không thể phát hiện để biệt đãi cho một đảng phái chính trị? Nếu 90 triệu người bỏ phiếu vào tháng 11 này ở Hoa Kỳ, có lẽ khoảng một phần ba (30 triệu người) sẽ chưa quyết định biểu quyết vào những thời điểm nhạy cảm, và tôi ước tính khoảng 12 triệu phiếu bầu có thể dễ dàng bị Big Tech thay đổi quan điểm khi kết hợp các trò thao túng mạnh mẽ trên nền tảng ứng dụng của họ mà không hề có ai hay biết. Số phiếu đó đủ để xác định kết quả của hàng trăm cuộc tuyển cử ngang phiếu của địa phương, tiểu bang và quốc hội trong cả nước, điều này khiến cho tính tự do và công bằng của cuộc bầu cử bé hơn những giá trị ảo.
Tiết lộ đầy đủ: Tôi tình cờ nghĩ rằng nếu một đảng chính trị hiện đang được Thung lũng Silicon thiên vị, thì lúc này đảng đó có ưu thế. Nhưng tôi cũng yêu nước Mỹ và nền dân chủ, và tôi tin rằng cuộc bầu cử tự do và công bằng là nền tảng hệ thống chính trị của chúng ta. Tôi không quan tâm “quyền lợi” của các công ty này là gì; mục đích cao cả không thể được biện minh bằng những hành động ám muội, đặc biệt khi chính quyền và công chúng khó thấy hoặc không hiểu rõ những phương thức đó.
Các quy định hoặc luật mới có thể cứu chúng ta thoát khỏi khả năng lôi kéo mạnh mẽ mà các công ty Big Tech sở hữu không? Có lẽ có, nhưng có vẻ như thường lệ, hiện nay các nhà lãnh đạo của chúng ta né tránh thay đổi, và tôi nghi ngờ, trong mọi hoàn cảnh, liệu pháp luật và quy định có thể theo kịp các mối đe dọa mới mà công nghệ mới gần như chắc chắn sẽ đặt ra trong những năm tới hay không.
Tuy nhiên, tôi không tin chúng ta hoàn toàn bất lực. Tôi nghĩ rằng một cách để thay đổi Facebook, Google và các công ty công nghệ tiên tiến là hãy tiếp nối họ, trở thành công dân có trách nhiệm, là thiết lập các hệ thống giám sát tinh vi để phát hiện, phân tích và lưu trữ những gì họ đang hiển thị cho mọi người, dùng công nghệ đấu với công nghệ.
Như đã nói, năm 2016, tôi đã chỉ đạo một nhóm theo dõi kết quả tìm kiếm trên nhiều công cụ. Đó là khởi đầu, nhưng chúng tôi có thể làm tốt hơn nhiều. Ngày nay, tôi đang làm việc với các cộng sự kinh doanh và các đồng nghiệp học thuật ở ba lục địa để mở rộng hệ thống nhằm giám sát 1 loạt thông tin mà các công ty Big Tech đang chia sẻ với người dùng – có cả những câu trả lời do “trợ lý cá nhân” cung cấp. Cuối cùng, một hệ sinh thái trên toàn thế giới của các hệ thống giám sát thụ động sẽ khiến các công ty này phải chịu trách nhiệm với công chúng về sự thiên vị thông tin và các thao túng trực tuyến có thể phát hiện được trong thời gian thực.
Tháng 11 sắp đến gần, rõ ràng là khá khẩn cấp. Ở bài này, không rõ liệu chúng ta có hành động kịp thời để giám sát cuộc bầu cử giữa kỳ hay không, nhưng chúng tôi quyết tâm sẵn sàng cho năm 2020.
Tác giả: Robert Epsteinis
(Robert Epsteinis là nhà tâm lý học nghiên cứu cấp cao của Viện nghiên cứu hành vi và công nghệ Hoa Kỳ ở bang California. Ông có bằng tiến sĩ của Đại học Harvard, là nhà sáng lập và chủ bút của Tạp chí Tâm lý học Ngày nay, đã xuất bản 15 sách và 300 bài viết về ảnh hưởng của internet và các chủ đề khác).
Bảo Long, theo Epoch Times