[صفحه اصلی ]   [Archive] [ English ]  
:: صفحه اصلي :: درباره نشريه :: آخرين شماره :: تمام شماره‌ها :: جستجو :: ثبت نام :: ارسال مقاله :: تماس با ما ::
بخش‌های اصلی
صفحه اصلی::
اطلاعات نشریه::
آرشیو مجله و مقالات::
برای نویسندگان::
برای داوران::
داوران فصلنامه اخلاق در علوم و فناوری::
تماس با ما::
ثبت نام و اشتراک::
تسهیلات پایگاه::
پیوندها::
اخبار::
::
COPE
This journal subscribes to the principles of
..
ISSN
P-ISSN: 2251-7634
E-ISSN: 2981-233X
..
جستجو در پایگاه

جستجوی پیشرفته
..
دریافت اطلاعات پایگاه
نشانی پست الکترونیک خود را برای دریافت اطلاعات و اخبار پایگاه، در کادر زیر وارد کنید.
..
آخرین مطالب بخش
:: تماس با ما
..
:: دوره 19، شماره 4 - ( 11-1403 ) ::
جلد 19 شماره 4 صفحات 149-142 برگشت به فهرست نسخه ها
چالش‌های اخلاقی اتخاذ هوش مصنوعی در مدیریت منابع انسانی
صمد رحیمی‌اقدم 1، پدرام صالحپور2 ، رقیه نامور3
1- گروه آموزشی مدیریت، دانشکده اقتصاد و مدیریت، دانشگاه تبریز، تبریز، ایران ، S.rahimi@tabrizu.ac.ir
2- گروه آموزشی مهندسی فناوری اطلاعات، دانشکده مهندسی برق و کامپیوتر، دانشگاه تبریز، تبریز، ایران
3- دانش‌آموختۀ کارشناسی‌ارشد، گروه آموزشی مدیریت، دانشکده اقتصاد و مدیریت، دانشگاه تبریز، تبریز، ایران.
چکیده:   (87 مشاهده)
زمینه: مطالعات اخیر نشان داده‌اند سازمان‌ها علی‌رغم سرمایه‌گذاریِ زمان، تلاش و منابع، هنوز ملاحظات اخلاقی لازم را در مواجهه با اتخاذ هوش‌مصنوعی در مدیریت منابع انسانی، پیش‌بینی نکرده‌اند. این پژوهش قصد دارد چالش‌های اخلاقی به‌کارگیری هوش‌مصنوعی برای مدیریت انسان‌ها را شناسایی و بررسی کند.
روش: برای انجام پژوهش از روش دلفی استفاده شده‌است. جامعه آماری پژوهش را صاحب‌نظران دانشگاهی، صنعتی و توسعه‌دهندگان هوش‌مصنوعی و مدیران و مشاوران کسب‌وکارهای استعمال‌کننده از هوش‌مصنوعی تشکیل می‌دهند که تعداد نمونه به 22 نفر رسید. نمونه‌گیری به‌صورت غیراحتمالی و هدفمند بوده و برای شناسایی متخصّصانِ برجسته از شیوه گلوله‌برفی استفاده‌شد. ابزار گردآوری اطلاعات مصاحبه‌های عمیق نیمه‌ساختاریافته بوده‌است. تجزیه‌وتحلیل اولیه داده‌ها، به‌کمک نرم‌افزار MAXQDA صورت گرفت. در گام نهایی، از کدگذاری‌های باز بهره برده‌شد.
یافته‌ها: یافته‌های پژوهش نشان می‌دهد که سازمان‌ها در استفاده از تکنیک‌های هوش‌مصنوعی و علم‌داده برای وظایف منابع انسانی با 6 تهدید اخلاقی مواجه می‌شوند: نقض عدالت سازمانی از طریق تصمیمات و ارزیابی‌های آلوده به خطا و سوگیری در داده‌ها؛ نقض خودمدیریتی/خودراهبری، خودمختاری، عاملیت، استقلال و اختیار کارکنان؛ نادیده گرفتن کرامت انسانی؛ مبهم بودن فرایند تصمیم‌گیری داده‌محور؛ آثار نامطلوب روحی، روانی و اجتماعی؛ نقض حریم خصوصی و محافظت از داده‌ها.
نتیجه گیری: مطالعه حاضر با آشکارسازی و کاهش فرضیات اشتباه، به سازمان‌ها کمک می‌کند تا با کسب آگاهی در مورد خطرات اجرای هوش‌مصنوعی در منابع انسانی، به‌سادگی، منطق تحلیلی حوزه‌های دیگر را به مدیریت و کنترل کارمندان خود منتقل نکنند. لذا چارچوب بدست‌آمده به تحقیقات مدیریتی در تلاقی تجزیه‌وتحلیل کارکنان، هوش‌مصنوعی و بازتاب‌های اخلاقی مدیریت الگوریتمی انسان‌ها کمک می‌کند.
واژه‌های کلیدی: هوش‌مصنوعی، مدیریت منابع انسانی، اخلاق منابع انسانی
متن کامل [PDF 1508 kb]   (50 دریافت)    
نوع مطالعه: پژوهشي | موضوع مقاله: تخصصي
دریافت: 1402/6/7 | پذیرش: 1402/8/28 | انتشار: 1403/11/10
ارسال پیام به نویسنده مسئول

ارسال نظر درباره این مقاله
نام کاربری یا پست الکترونیک شما:

CAPTCHA


XML   English Abstract   Print


Download citation:
BibTeX | RIS | EndNote | Medlars | ProCite | Reference Manager | RefWorks
Send citation to:

Rahimiaghdam S, Salehpoor P, Namvar R. Ethical Challenges of Adopting AI in HRM. Ethics in Science and Technology 2025; 19 (4) :142-149
URL: http://ethicsjournal.ir/article-1-3026-fa.html

رحیمی‌اقدم صمد، صالحپور پدرام، نامور رقیه. چالش‌های اخلاقی اتخاذ هوش مصنوعی در مدیریت منابع انسانی. اخلاق در علوم و فناوری. 1403; 19 (4) :142-149

URL: http://ethicsjournal.ir/article-1-3026-fa.html



بازنشر اطلاعات
Creative Commons License این مقاله تحت شرایط Creative Commons Attribution-NonCommercial 4.0 International License قابل بازنشر است.
دوره 19، شماره 4 - ( 11-1403 ) برگشت به فهرست نسخه ها
فصلنامه اخلاق در علوم و فناوری Ethics in Science and Technology
Creative Commons License
All works in this site are licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.
Persian site map - English site map - Created in 0.05 seconds with 41 queries by YEKTAWEB 4679