不同情况使用不同的用户体验研究方法外文翻译资料

 2023-01-12 11:01

不同情况使用不同的用户体验研究方法

原文作者:CHRISTIAN ROHRER

摘要:不管是什么互联网产品都会和用户体验搭上关系,用户体验的好坏有时候会直接影响一个产品的成败。现代的用户体验研究方法,现在可以回答各种各样的问题。知道何时使用每种方法可以理解在3个关键维度映射它们(态度与行为;定性或定量的,网站或产品使用的上下文中)和整个典型的产品开发阶段。

关键词:互联网产品;用户体验研究方法;量化;维度

用户体验领域有着广泛的研究方法,并尝试运用正确的方法,如最近那些在发展的基于实验室的可用性研究,如未经协调的在线用户体验评估。

虽然对一个给定的项目使用全套的研究方法,是不现实的,几乎所有的项目将受益于多种研究方法,并且组合见解。遗憾的是许多设计团队只使用他们所熟悉的一种或两种研究方法。关键的问题是怎么做。为了更好地理解和使用哪种方法,它是有帮助的,查看它们与下列轴的三维框架:

※态度与行为

※定性定量对比

※产品的上下文中使用

下面的图表显示说明了在这些维度中出现的20个方法:

每个维度都提供了一种方法来区分他们并回答研究问题,以及他们要达到的目的。

态度与行为的维度

这种差别可以通过对比和总结“别人怎么说”与“人”(通常两个非常不同的)。态度研究的目的通常是理解和衡量人们的信仰,这就是态度研究在营销部门大量使用的原因。

虽然大多数可用性研究应该更多地依赖于行为方法,但自我报告的设计师仍然可以使用非常有用的信息。例如,卡片分类对用户的心智模型的一个信息空间提供见解,并且可以帮助确定你们产品最好的信息架构,应用程序或网站。调查测量和分类态度或收集自我报告的数据,可以帮助跟踪或发现重要问题来解决。焦点小组倾向于可用性的目的,出于各种原因,提供了一个重要的看法,使人们在一组设置里思考一个品牌或产品概念。

在另一端的维度,主要关注行为的方法,是解决寻求理解“人”的产品或服务的问题。例如站点访问者在A / B测试提出更改站点的设计随机样本,尝试一切不变,为了看到不同站点的设计的对选择行为的影响,眼动旨在了解用户在视觉上与界面设计的交互。

在这两个极端之间,我们使用两个最受欢迎的方法:可用性研究领域的研究。他们利用自我报告的混合物和行为数据,可以朝着这个维度,但倾向于行为方面通常是推荐的。

定性与定量维度

这里有一个重要的区别, 一个开放式调查的问题远远超出狭隘的定性为“开放性”的观点。相反,定性的研究自然生成的数据根据直接观察他们的行为或态度,而在定量研究中,数据的行为或态度问题间接地通过测量或乐器等调查或分析工具。在实地研究和可用性的研究中,例如,研究者直接观察人们如何使用技术来满足他们的需求。这让他们提问的能力,调查行为,或甚至可能调整研究方案来更好地满足其目标。分析的数据通常不是数学。

相比之下,量化方法的见解通常来源于数学分析,由于数据收集的工具(如,调查工具或网站服务器日志)捕捉这些大量的数据很容易编码数值。

由于分歧的性质,定性的方法更适合回答问题或者如何解决一个问题,为什么?而定量方法做得更好回答有多少,又有多少类型的问题?在这些数字有助于优化资源,例如关注影响问题最大的因素。下面的图表说明了前两个维度如何影响类型的问题,可以问:

产品的上下文中使用

第三个区别如何、是否参与这项研究使用的产品或服务的问题。这可以被描述为:

自然或近天然产品的使用

脚本使用的产品

在研究过程中没有使用产品

一个混合的

当学习自然的使用产品,目标是最小化干扰研究为了了解的行为或态度,尽可能接近现实。这提供了更大的有效性但不控制你了解什么话题。很多人种学试图这样做实地研究,但是总有一些观测偏差。拦截调查和数据挖掘或其他分析技术是定量的例子。

产品使用的脚本化研究是为了专注特定的使用方面的见解,例如在一个新设计的流程。脚本可以相当多样化的程度,根据不同的研究目标。例如,基准的研究通常是照本宣科式的量化,以便它可以产生可靠的可用性指标。

研究对该产品的使用和可用性进行检查问题,如品牌或更大的文化行为的研究。

混合方法使用一种创造性的产品以满足他们的目标。例如,参与设计方法允许用户交互以及重新排列的设计元素,可以体验产品的一部分,讨论他们提出的解决方案将如何更好地满足他们的需求和他们为什么做出一定的选择。概念测试方法采用粗糙近似的产品或服务的核心,它将提供用户希望或需要的产品或服务(而不是经验的细节)。

大部分的方法可以沿着一个或多个维度的图表,即使在相同的研究中,但通常可以满足多个目标。例如,现场研究可以关注别人怎么说(人类学的采访)或他们所做的事情(扩展观测);合意性研究和卡片分类定性和定量版本;和眼动可以照本宣科或不用剧本的。

产品开发阶段(时间维度)

需要考虑的另一个重要的区别是在研究方法之间做出选择,达到产品开发及其相关的阶段目标。

战略:在产品开发的开始阶段,你通常考虑新的想法和未来的机会。这个阶段的研究方法可以有很大区别。

执行:最终,你将达到一个“去/不方便”决策点,当你进入一段时间,当你不断增加你设计方向的选择。在这一阶段,主要的研究方法是结构化的,并且帮助你降低执行的风险。

评估:在某种程度上,产品或服务将使用足够多的用户,这样您就可以开始测量你正在做的事情。这本质上是典型的总结性的,可能针对产品自身的历史数据或对其竞争对手。

下面的表格总结了这些目标,列出了典型的研究方法和与每一个相关的方法:

艺术还是科学?

虽然许多用户体验研究方法有其根在科学实践中,他们的目的不是纯粹的科学和仍然需要进行调整,以满足利益相关者的需求。这就是为什么这里的刻画方法是一般的指导方针,而不是严格的分类。

最后,你的工作的成功将取决于有多少问题会影响改善用户体验的网站或产品。这些分类是为了帮助你在正确的时间做出最好的选择。

20个用户体验的方法

这里有一个简短描述的用户研究方法,如上图所示:

Usability-Lab研究:参与者带进实验室,一对一的研究员,给定一组任务的场景和使用的特定产品或兴趣服务。

人种学实地研究: 在自然环境中,研究人员和研究参与者会见,在那里他们将最有可能遇到的产品或服务的问题。

参与式设计:参与者给出设计元素或创意材料,为了以具体的方式构建理想的经验,表达对他们来讲最重要的是什么?为什么?

焦点小组:3 - 12组参与者带领讨论一组主题, 通过讨论和练习给予口头和书面反馈。

采访:研究人员与参与者进行一对一的讨论,深度参与者发表主题的问题。

眼动:一个眼动装置被配置为精确测量,参与者看他们执行任务或自然与网站交互,应用,物理产品或环境。

可用性测试:与几个参与者照本宣科式的执行可用性研究,使用精确和预定的性能指标。

主持远程可用性研究: 使用工具进行远程可用性研究,如分享自己电脑屏幕的软件和远程控制功能。

不加节制的远程面板研究: 一组训练的参与者在自己的个人设备安装使用有录像和数据收集的软件,一个网站或产品的出声思维, 研究人员或公司立即回放和分析自己的经验记录。

概念测试:研究股票的一个近似的产品或服务,抓住关键的本质(价值)的一个新的概念或产品,以确定其是否符合目标受众的需求;这是参与者可以做到一对一或大量的,并亲自或在线。

日记/相机研究:参与者给出一种机制,用(日记或摄像头)记录和描述与他们生活的方面相关的产品或服务,或者仅仅是核心目标受众,日记研究通常是纵向轻松地记录下参与者的数据。

客户反馈:开放式和封闭式自我选择的样本所提供的信息的用户,往往通过反馈链接,按钮,表单,或电子邮件。

合意性研究:参与者提供不同的视觉设计方案,预计从一个封闭列表中选择,将每个替代与一组属性这些研究可以定性和定量。

卡片分类:定量或定性方法,要求用户将项目组织组和类别分配给每个小组。这种方法可以帮助创建或改进的信息体系结构的一个网站,让用户的心智模式.

点击流分析:分析记录的屏幕或页面,用户点击和看到,当他们使用网站或软件产品,它需要启用遥测数据收集正确检测网站或应用程序。

A / B测试(也称为“多元测试”,“现场测试”或“桶测试”):是一种科学的测试方法,通过随机分配用户组在不同的设计网站上, 设计每个不同的交互,测量这些作业对用户行为的影响。

不加节制的用户体验研究:定量或定性和自动化的方法,使用一个专门的研究工具来捕获参与者行为(通过电脑上安装的软件参与者/浏览器)和态度(通过嵌入式调查问题),通常通过给参与者的目标或场景来完成一个网站或原型。

真实内容研究:方法,要求随机网访问者的目标或目的是进入该网站后,测量他们的后续行为,问他们在退出网站前是否成功地达到他们的目标。

拦截调查:调查过程中触发一个网站或应用程序的使用。

电子邮件调查:在调查中,从电子邮件招募了消息参与者。

剩余内容已隐藏,支付完成后下载完整资料


外文文献出处: http://www.nngroup.com/articles/which-ux-research-methods/

附外文文献原文

The field of user experience has a wide range of research methods available, ranging from tried-and-true methods such as lab-based usability studies to those that have been more recently developed, such as unmoderated online UX assessments.

While its not realistic to use the full set of methods on a given project, nearly all projects would benefit from multiple research methods and from combining insights. Unfortunately many design teams only use one or two methods that they are familiar with. The key question is what to do when. To better understand when to use which method, it is helpful to view them along a 3-dimensional framework with the following axes:

※Attitudinal vs. Behavioral

※Qualitative vs. Quantitative

※Context of Use

The following chart illustrates where 20 popular methods appear along these dimensions:

Each dimension provides a way to distinguish between studies in terms of the questions they answer and the purposes they are most suited for.

The Attitudinal vs. Behavioral Dimension

This distinction can be summed up by contrasting 'what people say' versus 'what people do' (very often the two are quite different). The purpose of attitudinal research is usually to understand or measure peoples stated beliefs, which is why attitudinal research is used heavily in marketing departments.

While most usability studies should rely more on behavior, methods that use self-reported information can still be quite useful to designers. For example, card sorting provides insights about users mental model of an information space, and can help determine the best information architecture for your product, application, or website. Surveys measure and categorize attitudes or collect self-reported data that can help track or discover important issues to address. Focus groups tend to be less useful for usability purposes, for a variety of reasons, but provide a top-of-mind view of what people think about a brand or product concept in a group setting.

On the other end of this dimension, methods that focus mostly on behavior seek to understand 'what people do' with the product or service in question. For example A/B testing presents changes to a sites design to random samples of site visitors, but attempts to hold all else constant, in order to see the effect of different site-design choices on behavior, while eye tracking seeks to understand how users visually interact with interface designs.

Between these two extremes lie the two most popular methods we use: usability studies and field studies. They utilize a mixture of self-reported and behavioral data, and can move toward either end of this dimension, though leaning toward the behavioral side is generally recommended.

The Qualitative vs. Quantitative Dimension

The distinction here is an important one, and goes well beyond the narrow view of qualitative as “open ended” as in an open-ended survey question. Rather, studies that are qualitative in nature generate data about behaviors or attitudes based on observing them directly, whereas in quantitative studies, the data about the behavior or attitudes in question are gathered indirectly, through a measurement or an instrument such as a survey or an analytics tool. In field studies and usability studies, for example, the researcher directly observes how people use technology (or not) to meet their needs. This gives them the ability to ask questions, probe on behavior, or possibly even adjust the study protocol to better meet its objectives. Analysis of the data is usually not mathematical.

By contrast, insights in quantitative methods are typically derived from mathematical analysis, since the instrument of data collection (e.g., survey tool or web-server log) captures such large amounts of data that are easily coded numerically.

Due to the nature of their differences, qualitative methods are much better suited for answering questions about why or how to fix a problem, whereas quantitative methods do a much better job answering how many and how much types of questions. Having such numbers helps prioritize resources, for example to focus on issues with the biggest impact. The following chart illustrates how the first two dimensions affect the types of questions that can be asked:

The Context of Product Use

The third distinction has to do with how and whether participants in the study are using the product or service in question. This can be described as:

※Natural or near-natural use of the product

※Scripted use of the product

※Not using the product during the study

※A hybrid of the above

When studying natural use of the product, the goal is to minimize interference from the study in order to understand behavior or attitudes as close to reality as possible. This provides greater validity but less control over what topics you learn about. Many ethnographic field studies attempt to do this, though there are always some observation biases. Intercept surveys and data mining or other analytic techniques are quantitative examples of this.

A scripted study of product usage is done in order to focus the insights on specific usage aspects, such as on a newly redesigned flow. The degree of scripting can vary quite a bit, depending on the study goals. For example, a benchmarking study is usually very tightly scripted and more quantitative in nature, so that it can produce reliable usability metrics.

Studies where the product is not used are conducted to examine issues that are broader than usage and usability, such as a study of the brand or larger cultural behaviors.

Hybrid methods use a creative form of product usage to meet their goals. For example, participatory-design methods allows users to i

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[286952],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、文献综述、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。