Việc đưa Trí tuệ nhân tạo vào trong quá trình tuyển dụng đã không còn là một điều xa lạ trong những năm gần đây. Các công ty đã bắt đầu sử dụng AI để có thể đánh giá, phân tích và sàng lọc những ứng viên phù hợp nhất. Tuy nhiên, theo một số những phân tích gần đây cho thấy việc sử dụng công nghệ AI trong tuyển dụng đem đến khá nhiều bất cập.
Giáo sư Jelena Kovačević, trường William R. Berkley, đồng thời là Hiệu trưởng của Trường kỹ thuật NYU Tandon cho biết: "Những dữ liệu không được sàng lọc chi tiết sẽ dẫn đến sự sai lệch trong khâu tuyển dụng. Nếu như bạn không có một tệp dữ liệu đại diện hoặc bất kỳ đặc điểm nào mà bạn quyết định, thì bạn sẽ không thể tìm kiếm hoặc đánh giá chính xác những ứng viên ứng tuyển".
Vấn đề chính đối với việc sử dụng AI trong việc tuyển dụng là, trong một ngành công nghiệp chủ yếu là nam giới và người da trắng trong nhiều thập kỷ, dữ liệu lịch sử mà hệ thống tuyển dụng AI được xây dựng cuối cùng sẽ có sự sai lệch cố hữu. Nếu không có các bộ dữ liệu lịch sử đa dạng để đào tạo các thuật toán AI, các công cụ tuyển dụng AI rất có thể mang những thành kiến tuyển dụng từ những năm 1980. Tuy nhiên nếu được sử dụng một cách hiệu quả, AI có thể giúp tạo ra một quy trình tuyển dụng hiệu quả và công bằng hơn.
Sự nguy hiểm của sự thiên vị trong AI
Vì các thuật toán AI thường được đào tạo dựa trên dữ liệu trong quá khứ, nên sự thiên vị với AI luôn là một vấn đề đáng lo ngại. Trong khoa học dữ liệu, sai lệch được định nghĩa là một lỗi phát sinh từ các giả định bị lỗi trong các thuật toán. Đào tạo các thuật toán của bạn với dữ liệu không phản ánh bối cảnh hiện tại và bạn sẽ nhận được kết quả sai. Do đó, với việc tuyển dụng, đặc biệt là trong một ngành như CNTT, vốn có sự đa dạng trong lịch sử, việc đào tạo một thuật toán về dữ liệu tuyển dụng trước đây có thể là một sai lầm lớn.
Ben Winters, một chuyên gia về AI tại Trung tâm Thông tin Quyền riêng tư Điện tử cho biết: "Thực sự khó để đảm bảo rằng AI có thể đánh giá các ứng viên một cách chính xác mà không tạo ra sự thiên vị. Nhiều hệ thống tuyển dụng AI đã được chứng minh là có tạo ra sự thiên vị dựa trên chủng tộc và tình trạng khuyết tật".
Còn bà Jelena Kovačević lại nhận định: "Nếu bạn không có sự đa dạng trong tệp dữ liệu của mình, thì thuật toán sẽ không thể biết các cá nhân từ các nhóm không được đại diện sẽ hoạt động như thế nào trong quá khứ. Thay vào đó, thuật toán của bạn sẽ thiên về những gì tập dữ liệu của bạn đại diện và sẽ so sánh tất cả các ứng cử viên trong tương lai với nguyên mẫu đó".
Bà Kovačević chia sẻ thêm về sự thiên vị khi sử dụng AI trong tuyển dụng: "Ví dụ: Nếu người da đen bị loại ra khỏi các dữ liệu tuyển dụng và nếu không có phụ nữ trong các tệp dữ liệu tuyển dụng đó thì bạn sẽ không thể đánh giá các ứng viên trong tương lai một cách chính xác và công bằng."
Wendy Rentschler làm việc tại BMC Software nhận thức sâu sắc về những tiêu cực tiềm ẩn mà AI đem đến cho quá trình tuyển dụng. Wendy Rentschler cho biết Amazon đã từng có một khoảng thời gian nỗ lực phát triển một công cụ tuyển dụng AI nhưng thất bại vì các thuật toán của nó được cho là phân biệt đối với phụ nữ.
Rentschler nói: “Nếu công ty phần mềm lớn nhất và vĩ đại nhất không thể làm điều đó, tôi sẽ tạm dừng tất cả các công nghệ nhân sự".
Nếu bạn đang cố gắng cải thiện DEI trong tổ chức của mình, AI có thể giống như một biện pháp khắc phục nhanh chóng, nhưng nếu bạn không có chiến lược về việc sử dụng AI trong quá trình tuyển dụng, nó có thể phản tác dụng. Chìa khóa là đảm bảo quy trình tuyển dụng của bạn và các công cụ bạn đang sử dụng, không loại trừ các nhóm ứng viên ít được xác định.
Phân biệt đối xử
Các công ty phải đảm bảo rằng họ đang sử dụng AI trong quá trình tuyển dụng một cách đạo đức nhất có thể và không trở thành nạn nhân của những tuyên bố thổi phồng về những gì các công cụ này có thể làm được. Matthew Scherer, cố vấn chính sách cấp cao về quyền riêng tư của người lao động tại Trung tâm Dân chủ & Công nghệ, chỉ ra rằng, vì bộ phận nhân sự không tạo ra doanh thu và thường được coi là một khoản chi phí, nên các nhà lãnh đạo đôi khi mong muốn đưa vào công nghệ tự động hóa có thể giúp cắt giảm chi phí. Tuy nhiên, việc làm đó có thể khiến các công ty bỏ qua những tiêu cực tiềm ẩn của phần mềm họ đang sử dụng. Scherer cũng lưu ý rằng rất nhiều tuyên bố của các công ty phần mềm tuyển dụng AI thường bị thổi phồng quá mức, nếu không muốn nói là hoàn toàn sai sự thật.
Ông nói: "Đặc biệt là các công cụ được cho là có thể phân tích nét mặt, giọng nói từ đó suy ra được tính cách là hoàn toàn sai sự thật."
Những công cụ này cũng có thể đặt các ứng viên khuyết tật vào tình thế khó chịu khi phải quyết định xem họ có nên tiết lộ bất kỳ khuyết tật nào trước quá trình phỏng vấn hay không. Các ứng viên khuyết tật có thể lo ngại rằng nếu họ không tiết lộ, họ sẽ không nhận được các điều kiện thích hợp cần thiết cho đánh giá tự động, nhưng họ có thể không cảm thấy thoải mái khi tiết lộ khuyết tật ngay trong buổi phỏng vấn tuyển dụng đầu tiên.
Scherer cho biết luật phân biệt đối xử chia thành hai loại: tác động khác biệt, là sự phân biệt đối xử không chủ ý; và sự đối xử khác biệt, đó là sự phân biệt đối xử có chủ đích. Thật khó để thiết kế một công cụ có thể tránh tác động khác nhau “mà không ưu tiên rõ ràng các ứng cử viên từ các nhóm cụ thể, điều này còn phụ thuộc vào luật đối xử của từng bang".
Các quy định trong việc tuyển dụng AI
AI là một công nghệ tương đối mới, vẫn còn ít sự giám sát khi nói đến luật pháp, chính sách và luật liên quan đến quyền riêng tư và thực tiễn thương mại. Winters chỉ ra đơn khiếu nại FTC năm 2019 do EPIC đệ trình, cáo buộc công ty HireVue đã sử dụng các hành vi kinh doanh lừa đảo liên quan đến việc sử dụng nhận dạng khuôn mặt trong phần mềm tuyển dụng của mình.
HireVue tuyên bố cung cấp phần mềm “theo dõi và phân tích giọng nói và chuyển động trên khuôn mặt của các ứng viên để có thể phân tích sự phù hợp, trí tuệ cảm xúc, kỹ năng giao tiếp, khả năng nhận thức, khả năng giải quyết vấn đề, v.v.”. HireVue cuối cùng đã rút lại các tuyên bố về nhận dạng khuôn mặt và việc sử dụng công nghệ trong phần mềm của mình.
Ngoài ra còn có những lo ngại về lượng dữ liệu mà AI có thể thu thập về một ứng viên trong khi phân tích các cuộc phỏng vấn video, đánh giá, sơ yếu lý lịch, hồ sơ LinkedIn hoặc các hồ sơ truyền thông xã hội công khai khác của họ. Thông thường, các ứng viên thậm chí có thể không biết họ đang được phân tích bởi các công cụ AI trong quá trình phỏng vấn và có rất ít quy định về cách dữ liệu đó được quản lý.
“Nhìn chung, hiện có rất ít sự giám sát đối với các công cụ tuyển dụng AI. Một số dự luật của tiểu bang hoặc địa phương đã được đưa ra. Tuy nhiên, nhiều dự luật trong số này có những kẽ hở đáng kể - cụ thể là không áp dụng cho các cơ quan chính phủ. Tương lai của các quy định trong việc tuyển dụng được hỗ trợ bởi AI cần phải có sự minh bạch đáng kể, các kiểm soát đối với việc áp dụng các công cụ này, giới hạn thu thập, sử dụng và lưu giữ dữ liệu của bên thứ ba", Winters nói.
Có trách nhiệm trong việc sử dụng AI trong tuyển dụng
Rentschler và nhóm của cô ấy tại BMC đã tập trung vào việc tìm cách sử dụng AI để giúp sàng lọc ra những ứng viên phù hợp với công ty. Họ đã triển khai các công cụ sàng lọc ứng viên một cách nhanh chóng bằng cách sử dụng các bài đánh giá dựa trên kỹ năng cho vị trí mà họ đang ứng tuyển và lập tức lên lịch phỏng vấn để kết nối với nhà tuyển dụng. BMC cũng đã sử dụng AI để xác định ngôn ngữ có vấn đề trong các mô tả công việc của mình, đảm bảo chúng không phân biệt giới tính và hòa nhập cho mọi ứng viên. Mục tiêu của Rentschler là tìm cách triển khai AI để giúp công việc ứng tuyển trở nên nhanh chóng và hiệu quả hơn.
Mặc dù các thuật toán AI có thể mang thành kiến cố hữu dựa trên dữ liệu tuyển dụng trước đây, nhưng có một cách để tránh điều này là tập trung nhiều hơn vào việc tuyển dụng dựa trên kỹ năng. Nhóm của Rentschler chỉ sử dụng các công cụ AI để xác định các ứng viên có bộ kỹ năng cụ thể mà họ đang tìm cách bổ sung vào lực lượng lao động của mình và bỏ qua tất cả các yếu tố không liên quan như giáo dục, giới tính, tên và các thông tin nhận dạng tiềm năng khác mà trước đây có thể loại ứng viên khỏi quá trình.
Theo Rentschler, bằng cách làm này, BMC đã tuyển dụng các ứng viên có nguồn gốc không ngờ tới, bao gồm cả một người tị nạn Syria, người vốn là nha sĩ, nhưng cũng có một số kinh nghiệm viết code. Vì hệ thống chỉ tập trung vào việc tìm kiếm các ứng viên có kỹ năng viết code, cựu nha sĩ đã vượt qua bộ lọc và được công ty thuê. “Điều quan trọng là con người phải duy trì khả năng phán đoán và không chỉ dựa vào những gì máy móc nói", Scherer chia sẻ.
Theo CIO