Sözer, Edin GüçlüMetehan, Celal Teoman2026-04-212026-04-212026https://hdl.handle.net/123456789/8997https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=5T1_CZ5-UGb9QCmoURec4AFi2_448mE6oASWiGBa3ro6QZHwfU4_yEK8vipbg0SGBu çalışmada, çevrimiçi platformlarda insan ve yapay zeka kaynaklı önerilerin kabulü karşılaştırmalı olarak incelenmiştir. Araştırmada Teknoloji Kabul Modeli bireysel farklılıklardan kaynaklanabilecek kişisel yenilikçilik düzeyi ve teknoloji endişe düzeyi yapıları ile ve öneri kaynağına göre farklılık göstermesi beklenebilecek güven ve mahremiyet riski yapıları ile genişletilmiştir. Araştırma, senaryo tabanlı deneysel tasarım kullanılarak 413 katılımcıdan (İnsan grubu n=200, yapay zeka grubu n=213) veri toplanarak gerçekleştirilmiştir. Ölçüm modelinin geçerliliği doğrulayıcı faktör analizi ve yakınsak/ıraksak geçerlilik kriterleri ile test edilmiştir. Veriler yapısal eşitlik modellemesi, bootstrap aracılık analizi ve çoklu grup karşılaştırmaları kullanılarak analiz edilmiştir. Bulgular, algılanan kullanım kolaylığı ve algılanan faydada gruplar arası fark bulunmamasına rağmen, benimseme niyetinin insan danışman grubunda anlamlı düzeyde daha yüksek olduğunu ortaya koymaktadır. Bu 'eşit performans algısı, farklı tercih' paradoksu, algoritmadan kaçınma literatürüyle tutarlıdır. Toplam etki ayrıştırması, öneri kaynağına göre farklı psikolojik mekanizmaların devreye girdiğini ortaya koymuştur: Güven aracılığı yalnızca insan danışman bağlamında anlamlı olup fayda-niyet ilişkisinin %18'ini açıklamaktadır; yapay zeka bağlamında ise güven aracılığı anlamsızdır. Mahremiyet riski aracılığı ise yalnızca yapay zeka bağlamında anlamlı olmakla birlikte, açıklayıcı gücü düşüktür (%3). Çalışmada güven etkisi insan grubunda daha yüksek (d=0.42), mahremiyet riski algısı ise yapay zeka grubunda daha yüksek (d=0.71) bulunmuştur. Bu farklar orta düzeyde bir etki büyüklüğüne karşılık gelmektedir. Araştırmada Teknoloji Kabul Modeli'nin tüm yolları güçlü şekilde doğrulanmıştır. Bireysel etkilerden yenilikçiliğin algılanan kullanım kolaylığına etkisi doğrulanırken, teknoloji endişesinin etkisi ise desteklenmemiştir. Araştırma bulguları, yapay zeka tabanlı sistemlerin benimsenmesinde teknik yeterlilik (kullanım kolaylığı ve fayda algısı) benimseme niyetine baskın şekilde etki ettiğini, bununla beraber mahremiyet riskinin zayıf da olsa etkisinin olduğunu ortaya koymuştur. Buna karşın, insan danışman bağlamında güven mekanizmasının tamamlayıcı bir rol üstlendiği bulgulanmıştır. Ancak teknik yeterliliklerin ayrışmamasına rağmen, benimseme niyetindeki farklılık nedeniyle, uygulayıcıların yapay zeka tabanlı öneri sistemlerini tasarlarken, güven sağlayıcı ve mahremiyet riski endişelerini giderici unsurlara yer vermesi önerilmektedir.This study comparatively examines the acceptance of human and artificial intelligence sourced recommendations on online platforms. The research extends the Technology Acceptance Model with personal innovativeness and technology anxiety constructs that may stem from individual differences, and with trust and perceived privacy risk constructs that are expected to differ according to the recommendation source. The research was conducted by collecting data from 413 participants (Human group n=200, artificial intelligence group n=213) using a scenario-based experimental design. The validity of the measurement model was tested through confirmatory factor analysis and convergent/discriminant validity criteria. Data were analyzed using structural equation modeling, bootstrap mediation analysis, and multi-group comparisons. Findings reveal that adoption intention was significantly higher in the human advisor group, despite no between-group differences in perceived ease of use and perceived usefulness. This 'equal performance perception, different preference' paradox is consistent with the algorithm aversion literature. Total effect decomposition revealed that different psychological mechanisms operate depending on the recommendation source: Trust mediation is significant only in the human advisor context, explaining 18% of the usefulness-intention relationship; in the artificial intelligence context, trust mediation is not significant. Privacy risk mediation is significant only in the artificial intelligence context, though its explanatory power is low (3%). The study found that trust effect was higher in the human group (d=0.42), while privacy risk perception was higher in the artificial intelligence group (d=0.71). These differences correspond to medium effect sizes. All paths of the Technology Acceptance Model were strongly confirmed in the research. Among individual effects, the influence of innovativeness on perceived ease of use was confirmed, whereas the effect of technology anxiety was not supported. Research findings revealed that technical competence (ease of use and usefulness perceptions) has a dominant effect on adoption intention in the acceptance of artificial intelligence based systems, while privacy risk has a weak but present effect. In contrast, the trust mechanism was found to play a complementary role in the human advisor context. However, despite no differentiation in technical competencies, due to the difference in adoption intention, it is recommended that practitioners incorporate trust-building elements and features that address privacy risk concerns when designing artificial intelligence based recommendation systems.trİnsan-Yapay Zeka EtkileşimiOnline MarketingİşletmeHuman-Artificial Intelligence InteractionÇevrimiçi PazarlamaBusiness AdministrationÇevrimiçi öneri sistemlerinin kabulünde yapay zeka-insan karşılaştırması: Kullanıcı yenilikçiliği, teknoloji endişesi, algılanan güven ve mahremiyet riskinin etkisiA Comparison of Artificial Intelligence and Human Recommendations in the Acceptance of Online Recommendation Systems: The Effects of User Innovativeness, Technology Anxiety, Perceived Trust, and Privacy RiskDoctoral Thesis