Tin tức mới

Robot thông minh có khả năng cảm nhận giống con người

Công nghệ trí tuệ nhân tạo ngày càng phát triển trên thế giới, khởi nguồn từ những thiết bị công nghệ thông minh và đến bây giờ đã có những nước cho ra mắt robot trí tuệ nhân tạo có những khả năng về nhận biết, phán đoán vốn chỉ có ở con người. Điều mà robot khác con người là do chúng không có những cảm xúc con người có và không có những giác quan đặc biệt để cảm nhận cuộc sống xung quanh. Tuy nhiên mới đây các nhà khoa học đã nghiên cứu ra công nghệ robot có khả năng thị giác, thính giác, khứu giác, vị giác và xúc giác gần giống với con người, hãy cùng chúng tôi tìm hiểu thông tin trên trong bài viết dưới đây nhé.

Robot có thể cảm nhận xúc giác giống con người

Con người sở hữu 5 giác quan quan trọng. Bao gồm thị giác, thính giác, khứu giác, vị giác và xúc giác. Nhờ sự phát triển của khoa học công nghệ. Các hệ thống robot hiện đại ngày nay cũng đã sở hữu ít nhất 2 giác quan trong số này. Chẳng hạn thị giác của robot có thể được đảm nhiệm bởi camera. Hay thính giác bắt nguồn từ hệ thống micro tích hợp. Trong tương lai , robot rất có thể sẽ được trang bị thêm một giác quan nữa, đó là xúc giác.

Robot có thể cảm nhận xúc giác giống con người
Robot có thể cảm nhận xúc giác giống con người

Như các giác quan khác, xúc giác đóng vai trò quan trọng. Trong mọi hoạt động sống cơ bản của con người. Những hành động đơn giản như mở một chai hoặc buộc dây giày sẽ phức tạp hơn rất nhiều. Nếu chúng ta không thể cảm nhận được vật thể bằng tay. Robot cũng vậy, việc thiếu cảm nhận xúc giác khiến khả năng thực thiệt các hành động tỉ mỉ. Đòi hỏi nhiều sự “nắn nót” của chúng bị hạn chế đáng kể. Mặc dù đã có sự giúp sức rất lớn từ trí tuệ nhân tạo.

Nhờ nỗ lực của các nhà nghiên cứu, trí tuệ nhân tạo (AI) dần đạt được khả năng thị giác, thính giác, khứu giác, vị giác và xúc giác gần giống với con người. Kể từ khi bắt đầu nghiên cứu về robot. Con người đã luôn muốn tạo ra những cỗ máy dựa trên hình ảnh của chính mình. Từ những robot biết đi đứng cho đến các hệ thống biết suy nghĩ. Tái tạo các giác quan cảm nhận mùi hương, hình ảnh và âm thanh chẳng khác nào con người. Thị giác robot vẫn còn rất sơ khai, nhưng một số robot hiện nay có hệ thống tia hồng ngoại. Giúp chúng nhìn thấy các vật thể dựa trên hình dạng.

Robot có thể sẽ đánh hơi thấy mùi ga

Aryballe là công ty phần mềm AI đang phát triển hệ thống cảm biến sinh học. Và học máy có thể bắt chước khứu giác con người. Cảm biến của họ có thể ghi nhận các phân tử mùi trong không khí. Mã hóa chúng thành dữ liệu. Hệ thống AI sẽ lấy dữ liệu đó, kết hợp với kho dữ liệu chứa hàng nghìn mùi khác nhau.

Sau khi tham chiếu dữ liệu thu thập được với dữ liệu có sẵn. Hệ thống có thể xác định đó là mùi gì. Công nghệ này đặc biệt hữu dụng nếu kết hợp với các hệ thống nấu ăn. Hayự động tắt lò nướng trước khi thực phẩm bị cháy hoặc phát hiện rò rỉ khí ga.

Robot có thể thấy các vật thể trong suốt

Một nhóm các nhà nghiên cứu từ Đại học Carnegie Mellon (Mỹ). Tạo ra một hệ thống giúp robot cải thiện khả năng nhìn robot nhìn các vật thể trong suốt. Họ kết hợp cảm biến độ sâu với một máy ảnh để ghi lại các sắc thái màu. Như đỏ, xanh lục, xanh lam phản chiếu trên cạnh của vật thể. Từ đó robot có thể xác định vị trí của vật nhờ nhìn thấy các vệt màu sắc mà camera ghi lại. Chỉ khi nhìn thấy vật thể, robot mới có thể dùng cánh tay cầm nắm đồ vật.

Robot có thể thấy các vật thể trong suốt
Robot có thể thấy các vật thể trong suốt

Các nhà nghiên cứu từ Đại học Carnegie Mellon cũng tạo ra một kho dữ liệu. Gồm âm thanh và hình ảnh được số hóa. Thông qua đào tạo, hệ thống AI có thể xác định chính xác từng âm thanh từ dữ liệu này.

Tuy robot vẫn xác định được các vật thể mà nó không nhìn thấy. Nhưng nếu dùng khả năng nghe, nó có thể nắm bắt mọi thứ tốt hơn. Do đó, họ muốn phát triển công nghệ cho phép AI phân biệt giữa giọng nói và tiếng ồn. uy nhiên, robot thường gặp khó khăn khi nhìn các vật trong suốt. Như chai thủy tinh, cốc nhựa vì cảm biến độ sâu của chúng bị phản chiếu lại trên các vật thể này, khiến chúng chỉ có thể nhận diện được bóng mờ của vật.

Công ty Oticon chuyên sản xuất thiết bị trợ thính đang tìm cách chế tạo ốc tai điện tử. Giúp ấy ghép vào cơ thể con người. Thuật toán bên trong các ốc tai này đã tiếp xúc với hàng triệu mẫu giọng nói không bị lẫn với tiếng ồn. Nên chúng sẽ có khả năng tự tách giọng nói. Thiết bị của Oticon được kỳ vọng sẽ giúp những người khiếm thính lấy lại thính lực trong tương lai.

Robot có hệ thống nếm thử thực phẩm

Gastrograph AI là nền tảng của công ty Analytical Flavor Systems. Có khả năng dự đoán cách con người phản ứng trước một món ăn mới. Từ đó giúp nhà sản xuất và nhà tiếp thị có thể dự đoán sản phẩm đó sẽ nhận được phản ứng thế nào từ một thị trường cụ thể.

Hệ thống sử dụng dữ liệu của hàng nghìn người tiêu dùng. Đã đánh giá hàng nghìn sản phẩm thông qua ứng dụng di động. Phân loại thành các thông số và danh mục khác nhau. Hệ thống tự học của AI có thể xác định hương vị nào sẽ hợp với từng nhóm đối tượng. Khu vực cụ thể. Trên website riêng, công ty tuyên bố đã mô hình hóa hơn 1.000 hương vị. Để giúp các doanh nghiệp thực phẩm tạo ra công thức cho các sản phẩm đồ ăn.

AI cảm nhận bề mặt vật thể

AI cảm nhận bề mặt vật thể
AI cảm nhận bề mặt vật thể

GelSight là công nghệ đang được các nhà nghiên cứu tại Phòng thí nghiệm Khoa học máy tính và AI của trường MIT phát triển. Công nghệ này dùng cảm biến độ sâu, cho phép các robot nhận biết hình dạng, kích cỡ. Hay chất liệu của bề mặt mà chúng chạm vào, giúp xúc giác của robot. Được số hóa với độ chính xác cao.

Yunzhu Li – nhà nghiên cứu tại trường MIT đang phát triển hệ thống AI có khả năng kết nối hình ảnh với cảm giác tiếp xúc bề mặt. Li nói với Wall Street Journal: “Con người phát triển khả năng từ kinh nghiệm học trong suốt cuộc đời, mạng nơ-ron có thể học nhanh hơn nhiều”.

Bằng cách thu thập dữ liệu từ 200 vật thể đã được cảm biến GelSight chạm vào, Li đã tạo ra kho dữ liệu cho AI để tìm mối liên hệ giữa dữ liệu hình ảnh và dữ liệu xúc giác.

Trả lời

Email của bạn sẽ không được hiển thị công khai.

WC Captcha + 83 = 93