Sai lầm của Google AI: Cho keo vào pizza và những sai lầm gây sốc khác
Khám phá những sai lầm gây sốc của trí tuệ nhân tạo từ Google, bao gồm cả khuyến nghị cho người dùng bôi keo vào pizza và những sai lầm kỳ lạ khác. Khám phá những phát triển mới nhất trong lĩnh vực trí tuệ nhân tạo từ các ông lớn công nghệ như Microsoft, Meta và nhiều hơn nữa. Cập nhật về diễn biến của công nghệ trí tuệ nhân tạo và những ảnh hưởng của nó.
14 tháng 2, 2025

Khám phá tin tức và hiểu biết mới nhất về AI trong bài đăng blog thông tin này. Khám phá những thách thức mà các ông lớn công nghệ như Google và OpenAI đang đối mặt, và tìm hiểu về những phát triển thú vị trong các tính năng được hỗ trợ bởi AI từ Microsoft. Nắm bắt xu hướng và có được sự hiểu biết sâu sắc hơn về thế giới trí tuệ nhân tạo đang phát triển nhanh chóng.
Sai lầm của trí tuệ nhân tạo của Google: Những khuyến nghị thảm họa đã sai lầm
Yan Luo rời khỏi OpenAI, nâng cao các mối lo ngại về an toàn
Tranh cãi về giọng nói của OpenAI: Tranh chấp với Scarlett Johansson
Đối tác của OpenAI với News Corp: Những hàm ý về sự thiên vị tiềm ẩn
Tin đồn: Apple sẽ tích hợp các mô hình của OpenAI vào Siri
Điểm nổi bật của sự kiện Microsoft Build: Máy tính đồng hành, tính năng Recall và nhiều hơn nữa
Kết luận
Sai lầm của trí tuệ nhân tạo của Google: Những khuyến nghị thảm họa đã sai lầm
Sai lầm của trí tuệ nhân tạo của Google: Những khuyến nghị thảm họa đã sai lầm
Các nỗ lực mới nhất của Google về trí tuệ nhân tạo (AI) dường như đã gặp phải một số vấn đề lớn, như được chứng minh bởi những phản hồi gây lo ngại của AI của họ khi được truy vấn trực tiếp thông qua Google Search.
Một số ví dụ về các khuyến nghị gây vấn đề của AI bao gồm:
- Đề xuất thêm keo không độc hại vào nước sốt pizza để phô mai dính tốt hơn.
- Tuyên bố rằng năm 1919 là 20 năm trước.
- Khuyến nghị phụ nữ mang thai hút 2-3 điếu thuốc mỗi ngày.
- Khẳng định luôn an toàn để để chó trong xe ô tô nóng.
- Tạo ra chi tiết giả về cái chết của một nhân vật trong phim hoạt hình SpongeBob.
- Cung cấp một quy trình phức tạp nhiều bước để xác định số chị em gái của một người.
Thông tin phản hồi do AI tạo ra không chỉ không chính xác mà còn có thể gây hại nếu được thực hiện. Có vẻ như AI của Google đang gặp khó khăn trong việc cung cấp thông tin đáng tin cậy và chính xác khi được truy vấn trực tiếp, điều này gây ra những lo ngại nghiêm trọng về tính an toàn và độ tin cậy của việc tích hợp công nghệ như vậy vào chức năng tìm kiếm cốt lõi.
Mặc dù Google đã tuyên bố rằng giọng nói được sử dụng trong bản demo GPT-4 gần đây của họ không phải của Scarlett Johansson, sự tương đồng đã gây ra tranh cãi và đặt ra câu hỏi về các thực tiễn của họ. Sự hợp tác của công ty với News Corp cũng gây ra lo ngại về những thiên kiến tiềm ẩn, mặc dù Google cho rằng dữ liệu đào tạo hiện có là mối quan ngại chính, chứ không phải nội dung mới được truy cập.
Nói chung, những sự cố này nổi bật lên nhu cầu cấp thiết về việc kiểm tra, giám sát và minh bạch nghiêm ngặt khi các hệ thống AI trở nên sâu sắc hơn trong các dịch vụ hàng ngày. Google sẽ cần giải quyết những vấn đề này nhanh chóng để duy trì sự tin tưởng của người dùng và đảm bảo an toàn cho các dịch vụ dựa trên AI của họ.
Yan Luo rời khỏi OpenAI, nâng cao các mối lo ngại về an toàn
Yan Luo rời khỏi OpenAI, nâng cao các mối lo ngại về an toàn
Yan Luo, người đứng đầu về sự căn chỉnh siêu cấp tại OpenAI, đã rời khỏi công ty. Trong một chuỗi tweet, Luo đã bày tỏ những lo ngại về các ưu tiên của OpenAI, cho biết ông đã "bất đồng với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian dài".
Luo tin rằng OpenAI nên dành nhiều băng thông hơn cho "việc chuẩn bị cho các thế hệ mô hình tiếp theo về giám sát an ninh, sẵn sàng, an toàn, sức chống chịu với tấn công, căn chỉnh siêu cấp, bảo mật, tác động xã hội và các chủ đề liên quan". Ông lo ngại rằng những lĩnh vực nghiên cứu quan trọng này đã bị lãng quên để tập trung vào "các sản phẩm hấp dẫn".
Sự ra đi của Luo diễn ra không lâu sau khi Ilya Sutskever, nhà khoa học trưởng của OpenAI, cũng rời khỏi công ty. Trong khi Sutskever rời đi trong điều kiện tốt, sự ra đi của Luo dường như mang tính tranh cãi hơn, với gợi ý rằng các nhân viên OpenAI chỉ trích công ty có thể phải đối mặt với hậu quả, chẳng hạn như mất cổ phần đã vesting.
Giám đốc điều hành của OpenAI, Sam Altman, đã thừa nhận những lo ngại của Luo và cho biết công ty cam kết giải quyết chúng. Tuy nhiên, tình huống này nổi bật lên cuộc tranh luận liên tục trong cộng đồng AI về sự cân bằng giữa đổi mới và an toàn.
Khi việc phát triển các hệ thống AI tiên tiến tiếp tục, tầm quan trọng của việc ưu tiên an toàn và căn chỉnh với các giá trị của con người trở nên ngày càng quan trọng. Sự ra đi của Luo khỏi OpenAI nhấn mạnh nhu cầu các công ty AI duy trì một sự tập trung mạnh mẽ vào những vấn đề quan trọng này.
Tranh cãi về giọng nói của OpenAI: Tranh chấp với Scarlett Johansson
Tranh cãi về giọng nói của OpenAI: Tranh chấp với Scarlett Johansson
Theo các báo cáo, bản demo GPT-4 gần đây của OpenAI đã có một giọng nói rất giống với giọng của nữ diễn viên Scarlett Johansson trong bộ phim "Her". Rõ ràng, OpenAI đã liên hệ với Johansson để sử dụng giọng nói của cô, nhưng cô đã từ chối. Tuy nhiên, OpenAI khẳng định họ đã thuê một diễn viên lồng tiếng có giọng nói tình cờ giống, và không phải là ý định của họ để nhân bản giọng nói của Johansson.
Điều này đã dẫn đến một cuộc tranh cãi, với nhiều người tin rằng OpenAI đã tìm cách sử dụng một diễn viên lồng tiếng có giọng nói giống Johansson, mặc dù họ đã bị từ chối sử dụng giọng nói thực của cô. Trong khi OpenAI khẳng định họ không sao chép giọng nói của Johansson, công chúng dường như đứng về phía nữ diễn viên, coi đây là một trường hợp vùng xám.
Các điểm chính là:
- OpenAI đã liên hệ với Scarlett Johansson để sử dụng giọng nói của cô, nhưng cô đã từ chối.
- OpenAI khẳng định họ đã thuê một diễn viên lồng tiếng có giọng nói tình cờ giống, không có ý định nhân bản giọng nói của Johansson.
- Nhiều người tin rằng OpenAI đã tìm cách sử dụng một diễn viên lồng tiếng có giọng nói giống, mặc dù họ đã bị từ chối giọng nói thực của Johansson.
- Đây là một trường hợp vùng xám gây tranh cãi, với công chúng ủng hộ Johansson hơn về vấn đề này.
Nói chung, sự cố này đã nêu ra những câu hỏi về đạo đức và tính minh bạch xung quanh việc tạo ra giọng nói AI, đặc biệt khi liên quan đến việc sử dụng giọng nói giống người thật mà không có sự đồng ý của họ.
Đối tác của OpenAI với News Corp: Những hàm ý về sự thiên vị tiềm ẩn
Đối tác của OpenAI với News Corp: Những hàm ý về sự thiên vị tiềm ẩn
OpenAI gần đây đã công bố một sự hợp tác với News Corp, cung cấp cho họ quyền truy cập vào nội dung từ các ấn phẩm tin tức và thông tin lớn. Điều này đã gây ra những lo ngại về việc các thiên kiến có thể được đưa vào các mô hình ngôn ngữ của OpenAI, đặc biệt là ChatGPT.
Tuy nhiên, thực tế là nội dung từ News Corp rất có thể đã được đào tạo vào ChatGPT, và sự hợp tác này chỉ đơn giản cung cấp một cách tiếp cận đạo đức và minh bạch hơn để truy cập dữ liệu này. Những thiên kiến hiện có trong dữ liệu đào tạo không được kỳ vọng sẽ thay đổi đáng kể do thỏa thuận mới này.
Mặc dù News Corp được biết đến với những xu hướng chính trị cực đoan hơn, đặc biệt là thông qua bộ phận Fox News, tác động đối với các kết quả đầu ra của ChatGPT không được kỳ vọng là đáng kể. Mô hình ngôn ngữ này đã được đào tạo trên một lượng lớn dữ liệu trực tuyến, có khả năng bao gồm nội dung từ nhiều nguồn tin tức khác nhau, cả theo xu hướng tả lẫn hữu.
Sự hợp tác với News Corp chỉ đơn giản cung cấp cho OpenAI sự cho phép hợp pháp để sử dụng nội dung này trong việc đào tạo trong tương lai, thay vì dựa vào các nguồn dữ liệu có thể bị thiên vị hoặc không đầy đủ. Động thái này hướng tới tính minh bạch và thu thập dữ liệu đạo đức là một bước tiến tích cực, ngay cả khi những ảnh hưởng thực tế đối với các kết quả đầu ra của ChatGPT có thể hạn chế.
Tóm lại, mặc dù sự hợp tác với News Corp đưa ra những mối lo ngại hợp lý về các thiên kiến tiềm ẩn, thực tế là các kết quả đầu ra của ChatGPT có khả năng đã bị ảnh hưởng bởi một loạt các nguồn tin tức khác nhau, cả về xu hướng chính trị và chất lượng. Sự hợp tác này chủ yếu là về việc chính thức hóa và hợp pháp hóa các nguồn dữ liệu được sử dụng, chứ không phải là việc đưa vào những thiên kiến mới đáng kể vào mô hình ngôn ngữ.
Tin đồn: Apple sẽ tích hợp các mô hình của OpenAI vào Siri
Tin đồn: Apple sẽ tích hợp các mô hình của OpenAI vào Siri
Điều này rơi vào lĩnh vực tin đồn hơn, nhưng đây là một tuyên bố đáng được thảo luận. Theo trang web Mac Daily News, có một tin đồn rằng Apple sẽ hợp tác với OpenAI và điều này sẽ được công bố tại WWDC.
Điều này cũng đã được Bloomberg báo cáo, nhưng chưa được xác nhận bởi cả Apple và OpenAI. Tin đồn hiện tại là phiên bản mới của Siri trong iPhone tiếp theo của Apple có thể được cung cấp năng lượng bởi các mô hình GPT mới nhất của OpenAI.
Chúng tôi cũng đã nghe những tin đồn rằng Apple đã nói chuyện với Google về việc tích hợp Gemini, một mô hình ngôn ngữ lớn khác, vào các sản phẩm của họ. Tuy nhiên, chúng ta sẽ không biết chắc kết quả sẽ như thế nào cho đến khi sự kiện WWDC diễn ra.
Nếu tin đồn là đúng và Apple cuối cùng tích hợp các mô hình của OpenAI vào Siri, điều này có thể dẫn đến những cải thiện đáng kể về khả năng của Siri. Các mô hình ngôn ngữ của OpenAI, như GPT-4, đã thể hiện hiệu suất ấn tượng trong nhiều loại nhiệm vụ. Tích hợp các mô hình này có thể giúp Siri trở nên tự nhiên hơn, có kiến thức rộng hơn và có khả năng hiểu và phản hồi các truy vấn bằng ngôn ngữ tự nhiên tốt hơn.
Tuy nhiên, cũng có thể có những lo ngại về các thiên kiến hoặc hạn chế tiềm ẩn có thể được đưa vào bởi các mô hình của OpenAI. Điều quan trọng là Apple cần đánh giá và giải quyết bất kỳ vấn đề như vậy một cách cẩn thận để đảm bảo rằng Siri vẫn là một trợ lý đáng tin cậy và đáng tin.
Nói chung, tin đồn về việc Apple hợp tác với OpenAI cho Siri là một tin thú vị, và sẽ rất thú vị để xem liệu nó có trở thành hiện thực tại sự kiện WWDC sắp tới hay không. Như với bất kỳ tin đồn nào, tốt nhất là chờ đợi xác nhận chính thức trước khi đưa ra bất kỳ kết luận nào.
Điểm nổi bật của sự kiện Microsoft Build: Máy tính đồng hành, tính năng Recall và nhiều hơn nữa
Điểm nổi bật của sự kiện Microsoft Build: Máy tính đồng hành, tính năng Recall và nhiều hơn nữa
Tại sự kiện Microsoft Build ở Seattle, công ty công nghệ lớn này đã giới thiệu một số tính năng và cập nhật mới đáng chú ý:
- **Máy tính Cop
Câu hỏi thường gặp
Câu hỏi thường gặp

