Re: [PATCH] sparc: convert old cpumask API into new one
From: Thiago Farina
Date: Thu Apr 28 2011 - 11:26:34 EST
On Thu, Apr 28, 2011 at 12:14 PM, KOSAKI Motohiro
<kosaki.motohiro@xxxxxxxxxxxxxx> wrote:
> Adapt new API. Almost change is trivial, most important change are to
> remove following like =operator.
>
> Âcpumask_t cpu_mask = *mm_cpumask(mm);
Could you note that you are changing this to:
cpumask_t cpu_mask;
cpumask_copy(&cpu_mask, mm_cpumask(mm));
> Âcpus_allowed = current->cpus_allowed;
>
And this to:
cpumask_copy(&cpus_allowed, tsk_cpus_allowed(current));
> Because cpumask_var_t is =operator unsafe. These usage might prevent
> kernel core improvement.
>
> No functional change.
>
> Signed-off-by: KOSAKI Motohiro <kosaki.motohiro@xxxxxxxxxxxxxx>
> Cc: "David S. Miller" <davem@xxxxxxxxxxxxx>
> Cc: sparclinux@xxxxxxxxxxxxxxx
> ---
> Âarch/sparc/include/asm/smp_32.h Â| Â 12 ++++----
> Âarch/sparc/kernel/cpumap.c    |  Â4 +-
> Âarch/sparc/kernel/ds.c      |  14 ++++----
> Âarch/sparc/kernel/irq_64.c    |  Â6 ++--
> Âarch/sparc/kernel/leon_smp.c   |  20 ++++++------
> Âarch/sparc/kernel/mdesc.c    Â|  Â2 +-
> Âarch/sparc/kernel/of_device_64.c | Â Â3 +-
> Âarch/sparc/kernel/pci_msi.c   Â|  Â3 +-
> Âarch/sparc/kernel/smp_32.c    |  51 +++++++++++++++++++--------------
> Âarch/sparc/kernel/smp_64.c    |  58 +++++++++++++++++++-------------------
> Âarch/sparc/kernel/sun4d_smp.c  Â|  12 ++++----
> Âarch/sparc/kernel/sun4m_smp.c  Â|  12 ++++----
> Âarch/sparc/kernel/sysfs.c    Â|  Â3 +-
> Âarch/sparc/kernel/us2e_cpufreq.c | Â Â4 +-
> Âarch/sparc/kernel/us3_cpufreq.c Â| Â Â4 +-
> Âarch/sparc/mm/init_64.c     Â|  14 ++++----
> Â16 files changed, 116 insertions(+), 106 deletions(-)
>
> diff --git a/arch/sparc/include/asm/smp_32.h b/arch/sparc/include/asm/smp_32.h
> index d82d7f4..dd7a6be 100644
> --- a/arch/sparc/include/asm/smp_32.h
> +++ b/arch/sparc/include/asm/smp_32.h
> @@ -61,17 +61,17 @@ BTFIXUPDEF_BLACKBOX(load_current)
>
> Â#define smp_cross_call(func,mask,arg1,arg2,arg3,arg4) BTFIXUP_CALL(smp_cross_call)(func,mask,arg1,arg2,arg3,arg4)
>
> -static inline void xc0(smpfunc_t func) { smp_cross_call(func, cpu_online_map, 0, 0, 0, 0); }
> +static inline void xc0(smpfunc_t func) { smp_cross_call(func, *cpu_online_mask, 0, 0, 0, 0); }
> Âstatic inline void xc1(smpfunc_t func, unsigned long arg1)
> -{ smp_cross_call(func, cpu_online_map, arg1, 0, 0, 0); }
> +{ smp_cross_call(func, *cpu_online_mask, arg1, 0, 0, 0); }
> Âstatic inline void xc2(smpfunc_t func, unsigned long arg1, unsigned long arg2)
> -{ smp_cross_call(func, cpu_online_map, arg1, arg2, 0, 0); }
> +{ smp_cross_call(func, *cpu_online_mask, arg1, arg2, 0, 0); }
> Âstatic inline void xc3(smpfunc_t func, unsigned long arg1, unsigned long arg2,
> Â Â Â Â Â Â Â Â Â Â Â Â Â unsigned long arg3)
> -{ smp_cross_call(func, cpu_online_map, arg1, arg2, arg3, 0); }
> +{ smp_cross_call(func, *cpu_online_mask, arg1, arg2, arg3, 0); }
> Âstatic inline void xc4(smpfunc_t func, unsigned long arg1, unsigned long arg2,
> Â Â Â Â Â Â Â Â Â Â Â Â Â unsigned long arg3, unsigned long arg4)
> -{ smp_cross_call(func, cpu_online_map, arg1, arg2, arg3, arg4); }
> +{ smp_cross_call(func, *cpu_online_mask, arg1, arg2, arg3, arg4); }
>
> Âstatic inline int smp_call_function(void (*func)(void *info), void *info, int wait)
> Â{
> @@ -82,7 +82,7 @@ static inline int smp_call_function(void (*func)(void *info), void *info, int wa
> Âstatic inline int smp_call_function_single(int cpuid, void (*func) (void *info),
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â void *info, int wait)
> Â{
> - Â Â Â smp_cross_call((smpfunc_t)func, cpumask_of_cpu(cpuid),
> + Â Â Â smp_cross_call((smpfunc_t)func, *cpumask_of(cpuid),
> Â Â Â Â Â Â Â Â Â Â Â (unsigned long) info, 0, 0, 0);
> Â Â Â Âreturn 0;
> Â}
> diff --git a/arch/sparc/kernel/cpumap.c b/arch/sparc/kernel/cpumap.c
> index 8de64c8..d91fd78 100644
> --- a/arch/sparc/kernel/cpumap.c
> +++ b/arch/sparc/kernel/cpumap.c
> @@ -202,7 +202,7 @@ static struct cpuinfo_tree *build_cpuinfo_tree(void)
> Â Â Â Ânew_tree->total_nodes = n;
> Â Â Â Âmemcpy(&new_tree->level, tmp_level, sizeof(tmp_level));
>
> - Â Â Â prev_cpu = cpu = first_cpu(cpu_online_map);
> + Â Â Â prev_cpu = cpu = cpumask_first(cpu_online_mask);
>
> Â Â Â Â/* Initialize all levels in the tree with the first CPU */
> Â Â Â Âfor (level = CPUINFO_LVL_PROC; level >= CPUINFO_LVL_ROOT; level--) {
> @@ -381,7 +381,7 @@ static int simple_map_to_cpu(unsigned int index)
> Â Â Â Â}
>
> Â Â Â Â/* Impossible, since num_online_cpus() <= num_possible_cpus() */
> - Â Â Â return first_cpu(cpu_online_map);
> + Â Â Â return cpumask_first(cpu_online_mask);
> Â}
>
> Âstatic int _map_to_cpu(unsigned int index)
> diff --git a/arch/sparc/kernel/ds.c b/arch/sparc/kernel/ds.c
> index 3add4de..dd1342c 100644
> --- a/arch/sparc/kernel/ds.c
> +++ b/arch/sparc/kernel/ds.c
> @@ -497,7 +497,7 @@ static void dr_cpu_init_response(struct ds_data *resp, u64 req_num,
> Â Â Â Âtag->num_records = ncpus;
>
> Â Â Â Âi = 0;
> - Â Â Â for_each_cpu_mask(cpu, *mask) {
> + Â Â Â for_each_cpu(cpu, mask) {
> Â Â Â Â Â Â Â Âent[i].cpu = cpu;
> Â Â Â Â Â Â Â Âent[i].result = DR_CPU_RES_OK;
> Â Â Â Â Â Â Â Âent[i].stat = default_stat;
> @@ -534,7 +534,7 @@ static int __cpuinit dr_cpu_configure(struct ds_info *dp,
> Â Â Â Âint resp_len, ncpus, cpu;
> Â Â Â Âunsigned long flags;
>
> - Â Â Â ncpus = cpus_weight(*mask);
> + Â Â Â ncpus = cpumask_weight(mask);
> Â Â Â Âresp_len = dr_cpu_size_response(ncpus);
> Â Â Â Âresp = kzalloc(resp_len, GFP_KERNEL);
> Â Â Â Âif (!resp)
> @@ -547,7 +547,7 @@ static int __cpuinit dr_cpu_configure(struct ds_info *dp,
> Â Â Â Âmdesc_populate_present_mask(mask);
> Â Â Â Âmdesc_fill_in_cpu_data(mask);
>
> - Â Â Â for_each_cpu_mask(cpu, *mask) {
> + Â Â Â for_each_cpu(cpu, mask) {
> Â Â Â Â Â Â Â Âint err;
>
> Â Â Â Â Â Â Â Âprintk(KERN_INFO "ds-%llu: Starting cpu %d...\n",
> @@ -593,7 +593,7 @@ static int dr_cpu_unconfigure(struct ds_info *dp,
> Â Â Â Âint resp_len, ncpus, cpu;
> Â Â Â Âunsigned long flags;
>
> - Â Â Â ncpus = cpus_weight(*mask);
> + Â Â Â ncpus = cpumask_weight(mask);
> Â Â Â Âresp_len = dr_cpu_size_response(ncpus);
> Â Â Â Âresp = kzalloc(resp_len, GFP_KERNEL);
> Â Â Â Âif (!resp)
> @@ -603,7 +603,7 @@ static int dr_cpu_unconfigure(struct ds_info *dp,
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â resp_len, ncpus, mask,
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â DR_CPU_STAT_UNCONFIGURED);
>
> - Â Â Â for_each_cpu_mask(cpu, *mask) {
> + Â Â Â for_each_cpu(cpu, mask) {
> Â Â Â Â Â Â Â Âint err;
>
> Â Â Â Â Â Â Â Âprintk(KERN_INFO "ds-%llu: Shutting down cpu %d...\n",
> @@ -649,13 +649,13 @@ static void __cpuinit dr_cpu_data(struct ds_info *dp,
>
> Â Â Â Âpurge_dups(cpu_list, tag->num_records);
>
> - Â Â Â cpus_clear(mask);
> + Â Â Â cpumask_clear(&mask);
> Â Â Â Âfor (i = 0; i < tag->num_records; i++) {
> Â Â Â Â Â Â Â Âif (cpu_list[i] == CPU_SENTINEL)
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
>
> Â Â Â Â Â Â Â Âif (cpu_list[i] < nr_cpu_ids)
> - Â Â Â Â Â Â Â Â Â Â Â cpu_set(cpu_list[i], mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(cpu_list[i], &mask);
> Â Â Â Â}
>
> Â Â Â Âif (tag->type == DR_CPU_CONFIGURE)
> diff --git a/arch/sparc/kernel/irq_64.c b/arch/sparc/kernel/irq_64.c
> index b1d275c..4e78862 100644
> --- a/arch/sparc/kernel/irq_64.c
> +++ b/arch/sparc/kernel/irq_64.c
> @@ -224,13 +224,13 @@ static int irq_choose_cpu(unsigned int irq, const struct cpumask *affinity)
> Â Â Â Âint cpuid;
>
> Â Â Â Âcpumask_copy(&mask, affinity);
> - Â Â Â if (cpus_equal(mask, cpu_online_map)) {
> + Â Â Â if (cpumask_equal(&mask, cpu_online_mask)) {
> Â Â Â Â Â Â Â Âcpuid = map_to_cpu(irq);
> Â Â Â Â} else {
> Â Â Â Â Â Â Â Âcpumask_t tmp;
>
> - Â Â Â Â Â Â Â cpus_and(tmp, cpu_online_map, mask);
> - Â Â Â Â Â Â Â cpuid = cpus_empty(tmp) ? map_to_cpu(irq) : first_cpu(tmp);
> + Â Â Â Â Â Â Â cpumask_and(&tmp, cpu_online_mask, &mask);
> + Â Â Â Â Â Â Â cpuid = cpumask_empty(&tmp) ? map_to_cpu(irq) : cpumask_first(&tmp);
> Â Â Â Â}
>
> Â Â Â Âreturn cpuid;
> diff --git a/arch/sparc/kernel/leon_smp.c b/arch/sparc/kernel/leon_smp.c
> index 8f5de4a..3c5014b 100644
> --- a/arch/sparc/kernel/leon_smp.c
> +++ b/arch/sparc/kernel/leon_smp.c
> @@ -104,11 +104,11 @@ void __cpuinit leon_callin(void)
> Â Â Â Âatomic_inc(&init_mm.mm_count);
> Â Â Â Âcurrent->active_mm = &init_mm;
>
> - Â Â Â while (!cpu_isset(cpuid, smp_commenced_mask))
> + Â Â Â while (!cpumask_test_cpu(cpuid, &smp_commenced_mask))
> Â Â Â Â Â Â Â Âmb();
>
> Â Â Â Âlocal_irq_enable();
> - Â Â Â cpu_set(cpuid, cpu_online_map);
> + Â Â Â set_cpu_online(cpuid, true);
> Â}
>
> Â/*
> @@ -262,21 +262,21 @@ void __init leon_smp_done(void)
> Â Â Â Âlocal_flush_cache_all();
>
> Â Â Â Â/* Free unneeded trap tables */
> - Â Â Â if (!cpu_isset(1, cpu_present_map)) {
> + Â Â Â if (!cpu_present(1)) {
> Â Â Â Â Â Â Â ÂClearPageReserved(virt_to_page(&trapbase_cpu1));
> Â Â Â Â Â Â Â Âinit_page_count(virt_to_page(&trapbase_cpu1));
> Â Â Â Â Â Â Â Âfree_page((unsigned long)&trapbase_cpu1);
> Â Â Â Â Â Â Â Âtotalram_pages++;
> Â Â Â Â Â Â Â Ânum_physpages++;
> Â Â Â Â}
> - Â Â Â if (!cpu_isset(2, cpu_present_map)) {
> + Â Â Â if (!cpu_present(2)) {
> Â Â Â Â Â Â Â ÂClearPageReserved(virt_to_page(&trapbase_cpu2));
> Â Â Â Â Â Â Â Âinit_page_count(virt_to_page(&trapbase_cpu2));
> Â Â Â Â Â Â Â Âfree_page((unsigned long)&trapbase_cpu2);
> Â Â Â Â Â Â Â Âtotalram_pages++;
> Â Â Â Â Â Â Â Ânum_physpages++;
> Â Â Â Â}
> - Â Â Â if (!cpu_isset(3, cpu_present_map)) {
> + Â Â Â if (!cpu_present(3)) {
> Â Â Â Â Â Â Â ÂClearPageReserved(virt_to_page(&trapbase_cpu3));
> Â Â Â Â Â Â Â Âinit_page_count(virt_to_page(&trapbase_cpu3));
> Â Â Â Â Â Â Â Âfree_page((unsigned long)&trapbase_cpu3);
> @@ -337,10 +337,10 @@ static void leon_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
> Â Â Â Â Â Â Â Â{
> Â Â Â Â Â Â Â Â Â Â Â Âregister int i;
>
> - Â Â Â Â Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), mask);
> - Â Â Â Â Â Â Â Â Â Â Â cpus_and(mask, cpu_online_map, mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_and(&mask, cpu_online_mask, &mask);
> Â Â Â Â Â Â Â Â Â Â Â Âfor (i = 0; i <= high; i++) {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpu_isset(i, mask)) {
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpumask_test_cpu(i, &mask)) {
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_in[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_out[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âset_cpu_int(i, LEON3_IRQ_CROSS_CALL);
> @@ -354,7 +354,7 @@ static void leon_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
>
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_in[i])
> @@ -363,7 +363,7 @@ static void leon_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
>
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_out[i])
> diff --git a/arch/sparc/kernel/mdesc.c b/arch/sparc/kernel/mdesc.c
> index 56db064..42f28c7 100644
> --- a/arch/sparc/kernel/mdesc.c
> +++ b/arch/sparc/kernel/mdesc.c
> @@ -768,7 +768,7 @@ static void * __cpuinit mdesc_iterate_over_cpus(void *(*func)(struct mdesc_handl
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpuid, NR_CPUS);
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â}
> - Â Â Â Â Â Â Â if (!cpu_isset(cpuid, *mask))
> + Â Â Â Â Â Â Â if (!cpumask_test_cpu(cpuid, mask))
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â#endif
>
> diff --git a/arch/sparc/kernel/of_device_64.c b/arch/sparc/kernel/of_device_64.c
> index 5c14968..3bb2eac 100644
> --- a/arch/sparc/kernel/of_device_64.c
> +++ b/arch/sparc/kernel/of_device_64.c
> @@ -622,8 +622,9 @@ static unsigned int __init build_one_device_irq(struct platform_device *op,
> Âout:
> Â Â Â Ânid = of_node_to_nid(dp);
> Â Â Â Âif (nid != -1) {
> - Â Â Â Â Â Â Â cpumask_t numa_mask = *cpumask_of_node(nid);
> + Â Â Â Â Â Â Â cpumask_t numa_mask;
>
please, could you remove the extra blank line?
> + Â Â Â Â Â Â Â cpumask_copy(&numa_mask, cpumask_of_node(nid));
> Â Â Â Â Â Â Â Âirq_set_affinity(irq, &numa_mask);
> Â Â Â Â}
>
> diff --git a/arch/sparc/kernel/pci_msi.c b/arch/sparc/kernel/pci_msi.c
> index 30982e9..580651a 100644
> --- a/arch/sparc/kernel/pci_msi.c
> +++ b/arch/sparc/kernel/pci_msi.c
> @@ -284,8 +284,9 @@ static int bringup_one_msi_queue(struct pci_pbm_info *pbm,
>
> Â Â Â Ânid = pbm->numa_node;
> Â Â Â Âif (nid != -1) {
> - Â Â Â Â Â Â Â cpumask_t numa_mask = *cpumask_of_node(nid);
> + Â Â Â Â Â Â Â cpumask_t numa_mask;
>
please, could you remove the extra blank line?
> + Â Â Â Â Â Â Â cpumask_copy(&numa_mask, cpumask_of_node(nid));
> Â Â Â Â Â Â Â Âirq_set_affinity(irq, &numa_mask);
> Â Â Â Â}
> Â Â Â Âerr = request_irq(irq, sparc64_msiq_interrupt, 0,
> diff --git a/arch/sparc/kernel/smp_32.c b/arch/sparc/kernel/smp_32.c
> index f95690c..e6b74b5 100644
> --- a/arch/sparc/kernel/smp_32.c
> +++ b/arch/sparc/kernel/smp_32.c
> @@ -149,9 +149,10 @@ void smp_flush_tlb_all(void)
> Âvoid smp_flush_cache_mm(struct mm_struct *mm)
> Â{
> Â Â Â Âif(mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âxc1((smpfunc_t) BTFIXUP_CALL(local_flush_cache_mm), (unsigned long) mm);
> Â Â Â Â Â Â Â Âlocal_flush_cache_mm(mm);
> Â Â Â Â}
> @@ -160,9 +161,10 @@ void smp_flush_cache_mm(struct mm_struct *mm)
> Âvoid smp_flush_tlb_mm(struct mm_struct *mm)
> Â{
> Â Â Â Âif(mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask)) {
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask)) {
> Â Â Â Â Â Â Â Â Â Â Â Âxc1((smpfunc_t) BTFIXUP_CALL(local_flush_tlb_mm), (unsigned long) mm);
> Â Â Â Â Â Â Â Â Â Â Â Âif(atomic_read(&mm->mm_users) == 1 && current->active_mm == mm)
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcpumask_copy(mm_cpumask(mm),
> @@ -178,9 +180,10 @@ void smp_flush_cache_range(struct vm_area_struct *vma, unsigned long start,
> Â Â Â Âstruct mm_struct *mm = vma->vm_mm;
>
> Â Â Â Âif (mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âxc3((smpfunc_t) BTFIXUP_CALL(local_flush_cache_range), (unsigned long) vma, start, end);
> Â Â Â Â Â Â Â Âlocal_flush_cache_range(vma, start, end);
> Â Â Â Â}
> @@ -192,9 +195,10 @@ void smp_flush_tlb_range(struct vm_area_struct *vma, unsigned long start,
> Â Â Â Âstruct mm_struct *mm = vma->vm_mm;
>
> Â Â Â Âif (mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âxc3((smpfunc_t) BTFIXUP_CALL(local_flush_tlb_range), (unsigned long) vma, start, end);
> Â Â Â Â Â Â Â Âlocal_flush_tlb_range(vma, start, end);
> Â Â Â Â}
> @@ -205,9 +209,10 @@ void smp_flush_cache_page(struct vm_area_struct *vma, unsigned long page)
> Â Â Â Âstruct mm_struct *mm = vma->vm_mm;
>
> Â Â Â Âif(mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âxc2((smpfunc_t) BTFIXUP_CALL(local_flush_cache_page), (unsigned long) vma, page);
> Â Â Â Â Â Â Â Âlocal_flush_cache_page(vma, page);
> Â Â Â Â}
> @@ -218,9 +223,10 @@ void smp_flush_tlb_page(struct vm_area_struct *vma, unsigned long page)
> Â Â Â Âstruct mm_struct *mm = vma->vm_mm;
>
> Â Â Â Âif(mm->context != NO_CONTEXT) {
> - Â Â Â Â Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â Â Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â Â Â Â Â cpumask_t cpu_mask;
> + Â Â Â Â Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â Â Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âxc2((smpfunc_t) BTFIXUP_CALL(local_flush_tlb_page), (unsigned long) vma, page);
> Â Â Â Â Â Â Â Âlocal_flush_tlb_page(vma, page);
> Â Â Â Â}
> @@ -247,9 +253,10 @@ void smp_flush_page_to_ram(unsigned long page)
>
> Âvoid smp_flush_sig_insns(struct mm_struct *mm, unsigned long insn_addr)
> Â{
> - Â Â Â cpumask_t cpu_mask = *mm_cpumask(mm);
> - Â Â Â cpu_clear(smp_processor_id(), cpu_mask);
> - Â Â Â if (!cpus_empty(cpu_mask))
> + Â Â Â cpumask_t cpu_mask;
> + Â Â Â cpumask_copy(&cpu_mask, mm_cpumask(mm));
> + Â Â Â cpumask_clear_cpu(smp_processor_id(), &cpu_mask);
> + Â Â Â if (!cpumask_empty(&cpu_mask))
> Â Â Â Â Â Â Â Âxc2((smpfunc_t) BTFIXUP_CALL(local_flush_sig_insns), (unsigned long) mm, insn_addr);
> Â Â Â Âlocal_flush_sig_insns(mm, insn_addr);
> Â}
> @@ -403,7 +410,7 @@ int __cpuinit __cpu_up(unsigned int cpu)
> Â Â Â Â};
>
> Â Â Â Âif (!ret) {
> - Â Â Â Â Â Â Â cpu_set(cpu, smp_commenced_mask);
> + Â Â Â Â Â Â Â cpumask_set_cpu(cpu, &smp_commenced_mask);
> Â Â Â Â Â Â Â Âwhile (!cpu_online(cpu))
> Â Â Â Â Â Â Â Â Â Â Â Âmb();
> Â Â Â Â}
> diff --git a/arch/sparc/kernel/smp_64.c b/arch/sparc/kernel/smp_64.c
> index 9478da7..99cb172 100644
> --- a/arch/sparc/kernel/smp_64.c
> +++ b/arch/sparc/kernel/smp_64.c
> @@ -121,11 +121,11 @@ void __cpuinit smp_callin(void)
> Â Â Â Â/* inform the notifiers about the new cpu */
> Â Â Â Ânotify_cpu_starting(cpuid);
>
> - Â Â Â while (!cpu_isset(cpuid, smp_commenced_mask))
> + Â Â Â while (!cpumask_test_cpu(cpuid, &smp_commenced_mask))
> Â Â Â Â Â Â Â Ârmb();
>
> Â Â Â Âipi_call_lock_irq();
> - Â Â Â cpu_set(cpuid, cpu_online_map);
> + Â Â Â set_cpu_online(cpuid, true);
> Â Â Â Âipi_call_unlock_irq();
>
> Â Â Â Â/* idle thread is expected to have preempt disabled */
> @@ -785,7 +785,7 @@ static void xcall_deliver(u64 data0, u64 data1, u64 data2, const cpumask_t *mask
>
> Â/* Send cross call to all processors mentioned in MASK_P
> Â* except self. ÂReally, there are only two cases currently,
> - * "&cpu_online_map" and "&mm->cpu_vm_mask".
> + * "cpu_online_mask" and "mm_cpumask(mm)".
> Â*/
> Âstatic void smp_cross_call_masked(unsigned long *func, u32 ctx, u64 data1, u64 data2, const cpumask_t *mask)
> Â{
> @@ -797,7 +797,7 @@ static void smp_cross_call_masked(unsigned long *func, u32 ctx, u64 data1, u64 d
> Â/* Send cross call to all processors except self. */
> Âstatic void smp_cross_call(unsigned long *func, u32 ctx, u64 data1, u64 data2)
> Â{
> - Â Â Â smp_cross_call_masked(func, ctx, data1, data2, &cpu_online_map);
> + Â Â Â smp_cross_call_masked(func, ctx, data1, data2, cpu_online_mask);
> Â}
>
> Âextern unsigned long xcall_sync_tick;
> @@ -805,7 +805,7 @@ extern unsigned long xcall_sync_tick;
> Âstatic void smp_start_sync_tick_client(int cpu)
> Â{
> Â Â Â Âxcall_deliver((u64) &xcall_sync_tick, 0, 0,
> - Â Â Â Â Â Â Â Â Â Â &cpumask_of_cpu(cpu));
> + Â Â Â Â Â Â Â Â Â Â cpumask_of(cpu));
> Â}
>
> Âextern unsigned long xcall_call_function;
> @@ -820,7 +820,7 @@ extern unsigned long xcall_call_function_single;
> Âvoid arch_send_call_function_single_ipi(int cpu)
> Â{
> Â Â Â Âxcall_deliver((u64) &xcall_call_function_single, 0, 0,
> - Â Â Â Â Â Â Â Â Â Â &cpumask_of_cpu(cpu));
> + Â Â Â Â Â Â Â Â Â Â cpumask_of(cpu));
> Â}
>
> Âvoid __irq_entry smp_call_function_client(int irq, struct pt_regs *regs)
> @@ -918,7 +918,7 @@ void smp_flush_dcache_page_impl(struct page *page, int cpu)
> Â Â Â Â Â Â Â Â}
> Â Â Â Â Â Â Â Âif (data0) {
> Â Â Â Â Â Â Â Â Â Â Â Âxcall_deliver(data0, __pa(pg_addr),
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â (u64) pg_addr, &cpumask_of_cpu(cpu));
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â (u64) pg_addr, cpumask_of(cpu));
> Â#ifdef CONFIG_DEBUG_DCFLUSH
> Â Â Â Â Â Â Â Â Â Â Â Âatomic_inc(&dcpage_flushes_xcall);
> Â#endif
> @@ -954,7 +954,7 @@ void flush_dcache_page_all(struct mm_struct *mm, struct page *page)
> Â Â Â Â}
> Â Â Â Âif (data0) {
> Â Â Â Â Â Â Â Âxcall_deliver(data0, __pa(pg_addr),
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â (u64) pg_addr, &cpu_online_map);
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â (u64) pg_addr, cpu_online_mask);
> Â#ifdef CONFIG_DEBUG_DCFLUSH
> Â Â Â Â Â Â Â Âatomic_inc(&dcpage_flushes_xcall);
> Â#endif
> @@ -1197,32 +1197,32 @@ void __devinit smp_fill_in_sib_core_maps(void)
> Â Â Â Âfor_each_present_cpu(i) {
> Â Â Â Â Â Â Â Âunsigned int j;
>
> - Â Â Â Â Â Â Â cpus_clear(cpu_core_map[i]);
> + Â Â Â Â Â Â Â cpumask_clear(&cpu_core_map[i]);
> Â Â Â Â Â Â Â Âif (cpu_data(i).core_id == 0) {
> - Â Â Â Â Â Â Â Â Â Â Â cpu_set(i, cpu_core_map[i]);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(i, &cpu_core_map[i]);
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â}
>
> Â Â Â Â Â Â Â Âfor_each_present_cpu(j) {
> Â Â Â Â Â Â Â Â Â Â Â Âif (cpu_data(i).core_id ==
> Â Â Â Â Â Â Â Â Â Â Â Â Â Âcpu_data(j).core_id)
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpu_set(j, cpu_core_map[i]);
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(j, &cpu_core_map[i]);
> Â Â Â Â Â Â Â Â}
> Â Â Â Â}
>
> Â Â Â Âfor_each_present_cpu(i) {
> Â Â Â Â Â Â Â Âunsigned int j;
>
> - Â Â Â Â Â Â Â cpus_clear(per_cpu(cpu_sibling_map, i));
> + Â Â Â Â Â Â Â cpumask_clear(&per_cpu(cpu_sibling_map, i));
> Â Â Â Â Â Â Â Âif (cpu_data(i).proc_id == -1) {
> - Â Â Â Â Â Â Â Â Â Â Â cpu_set(i, per_cpu(cpu_sibling_map, i));
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(i, &per_cpu(cpu_sibling_map, i));
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â}
>
> Â Â Â Â Â Â Â Âfor_each_present_cpu(j) {
> Â Â Â Â Â Â Â Â Â Â Â Âif (cpu_data(i).proc_id ==
> Â Â Â Â Â Â Â Â Â Â Â Â Â Âcpu_data(j).proc_id)
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpu_set(j, per_cpu(cpu_sibling_map, i));
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(j, &per_cpu(cpu_sibling_map, i));
> Â Â Â Â Â Â Â Â}
> Â Â Â Â}
> Â}
> @@ -1232,10 +1232,10 @@ int __cpuinit __cpu_up(unsigned int cpu)
> Â Â Â Âint ret = smp_boot_one_cpu(cpu);
>
> Â Â Â Âif (!ret) {
> - Â Â Â Â Â Â Â cpu_set(cpu, smp_commenced_mask);
> - Â Â Â Â Â Â Â while (!cpu_isset(cpu, cpu_online_map))
> + Â Â Â Â Â Â Â cpumask_set_cpu(cpu, &smp_commenced_mask);
> + Â Â Â Â Â Â Â while (!cpu_online(cpu))
> Â Â Â Â Â Â Â Â Â Â Â Âmb();
> - Â Â Â Â Â Â Â if (!cpu_isset(cpu, cpu_online_map)) {
> + Â Â Â Â Â Â Â if (!cpu_online(cpu)) {
> Â Â Â Â Â Â Â Â Â Â Â Âret = -ENODEV;
> Â Â Â Â Â Â Â Â} else {
> Â Â Â Â Â Â Â Â Â Â Â Â/* On SUN4V, writes to %tick and %stick are
> @@ -1269,7 +1269,7 @@ void cpu_play_dead(void)
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âtb->nonresum_mondo_pa, 0);
> Â Â Â Â}
>
> - Â Â Â cpu_clear(cpu, smp_commenced_mask);
> + Â Â Â cpumask_clear_cpu(cpu, &smp_commenced_mask);
> Â Â Â Âmembar_safe("#Sync");
>
> Â Â Â Âlocal_irq_disable();
> @@ -1290,13 +1290,13 @@ int __cpu_disable(void)
> Â Â Â Âcpuinfo_sparc *c;
> Â Â Â Âint i;
>
> - Â Â Â for_each_cpu_mask(i, cpu_core_map[cpu])
> - Â Â Â Â Â Â Â cpu_clear(cpu, cpu_core_map[i]);
> - Â Â Â cpus_clear(cpu_core_map[cpu]);
> + Â Â Â for_each_cpu(i, &cpu_core_map[cpu])
> + Â Â Â Â Â Â Â cpumask_clear_cpu(cpu, &cpu_core_map[i]);
> + Â Â Â cpumask_clear(&cpu_core_map[cpu]);
>
> - Â Â Â for_each_cpu_mask(i, per_cpu(cpu_sibling_map, cpu))
> - Â Â Â Â Â Â Â cpu_clear(cpu, per_cpu(cpu_sibling_map, i));
> - Â Â Â cpus_clear(per_cpu(cpu_sibling_map, cpu));
> + Â Â Â for_each_cpu(i, &per_cpu(cpu_sibling_map, cpu))
> + Â Â Â Â Â Â Â cpumask_clear_cpu(cpu, &per_cpu(cpu_sibling_map, i));
> + Â Â Â cpumask_clear(&per_cpu(cpu_sibling_map, cpu));
>
> Â Â Â Âc = &cpu_data(cpu);
>
> @@ -1313,7 +1313,7 @@ int __cpu_disable(void)
> Â Â Â Âlocal_irq_disable();
>
> Â Â Â Âipi_call_lock();
> - Â Â Â cpu_clear(cpu, cpu_online_map);
> + Â Â Â set_cpu_online(cpu, false);
> Â Â Â Âipi_call_unlock();
>
> Â Â Â Âcpu_map_rebuild();
> @@ -1327,11 +1327,11 @@ void __cpu_die(unsigned int cpu)
>
> Â Â Â Âfor (i = 0; i < 100; i++) {
> Â Â Â Â Â Â Â Âsmp_rmb();
> - Â Â Â Â Â Â Â if (!cpu_isset(cpu, smp_commenced_mask))
> + Â Â Â Â Â Â Â if (!cpumask_test_cpu(cpu, &smp_commenced_mask))
> Â Â Â Â Â Â Â Â Â Â Â Âbreak;
> Â Â Â Â Â Â Â Âmsleep(100);
> Â Â Â Â}
> - Â Â Â if (cpu_isset(cpu, smp_commenced_mask)) {
> + Â Â Â if (cpumask_test_cpu(cpu, &smp_commenced_mask)) {
> Â Â Â Â Â Â Â Âprintk(KERN_ERR "CPU %u didn't die...\n", cpu);
> Â Â Â Â} else {
> Â#if defined(CONFIG_SUN_LDOMS)
> @@ -1341,7 +1341,7 @@ void __cpu_die(unsigned int cpu)
> Â Â Â Â Â Â Â Âdo {
> Â Â Â Â Â Â Â Â Â Â Â Âhv_err = sun4v_cpu_stop(cpu);
> Â Â Â Â Â Â Â Â Â Â Â Âif (hv_err == HV_EOK) {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â cpu_clear(cpu, cpu_present_map);
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â set_cpu_present(cpu, false);
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âbreak;
> Â Â Â Â Â Â Â Â Â Â Â Â}
> Â Â Â Â Â Â Â Â} while (--limit > 0);
> @@ -1362,7 +1362,7 @@ void __init smp_cpus_done(unsigned int max_cpus)
> Âvoid smp_send_reschedule(int cpu)
> Â{
> Â Â Â Âxcall_deliver((u64) &xcall_receive_signal, 0, 0,
> - Â Â Â Â Â Â Â Â Â Â &cpumask_of_cpu(cpu));
> + Â Â Â Â Â Â Â Â Â Â cpumask_of(cpu));
> Â}
>
> Âvoid __irq_entry smp_receive_signal_client(int irq, struct pt_regs *regs)
> diff --git a/arch/sparc/kernel/sun4d_smp.c b/arch/sparc/kernel/sun4d_smp.c
> index 475d50b..3d4185c 100644
> --- a/arch/sparc/kernel/sun4d_smp.c
> +++ b/arch/sparc/kernel/sun4d_smp.c
> @@ -105,7 +105,7 @@ void __cpuinit smp4d_callin(void)
>
> Â Â Â Âlocal_irq_enable(); Â Â /* We don't allow PIL 14 yet */
>
> - Â Â Â while (!cpu_isset(cpuid, smp_commenced_mask))
> + Â Â Â while (!cpumask_test_cpu(cpuid, &smp_commenced_mask))
> Â Â Â Â Â Â Â Âbarrier();
>
> Â Â Â Âspin_lock_irqsave(&sun4d_imsk_lock, flags);
> @@ -239,10 +239,10 @@ static void smp4d_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
> Â Â Â Â Â Â Â Â{
> Â Â Â Â Â Â Â Â Â Â Â Âregister int i;
>
> - Â Â Â Â Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), mask);
> - Â Â Â Â Â Â Â Â Â Â Â cpus_and(mask, cpu_online_map, mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_and(&mask, cpu_online_mask, &mask);
> Â Â Â Â Â Â Â Â Â Â Â Âfor (i = 0; i <= high; i++) {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpu_isset(i, mask)) {
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpumask_test_cpu(i, &mask)) {
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_in[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_out[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âsun4d_send_ipi(i, IRQ_CROSS_CALL);
> @@ -255,7 +255,7 @@ static void smp4d_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_in[i])
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âbarrier();
> @@ -263,7 +263,7 @@ static void smp4d_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_out[i])
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âbarrier();
> diff --git a/arch/sparc/kernel/sun4m_smp.c b/arch/sparc/kernel/sun4m_smp.c
> index 5cc7dc5..68e6011 100644
> --- a/arch/sparc/kernel/sun4m_smp.c
> +++ b/arch/sparc/kernel/sun4m_smp.c
> @@ -70,7 +70,7 @@ void __cpuinit smp4m_callin(void)
> Â Â Â Âatomic_inc(&init_mm.mm_count);
> Â Â Â Âcurrent->active_mm = &init_mm;
>
> - Â Â Â while (!cpu_isset(cpuid, smp_commenced_mask))
> + Â Â Â while (!cpumask_test_cpu(cpuid, &smp_commenced_mask))
> Â Â Â Â Â Â Â Âmb();
>
> Â Â Â Âlocal_irq_enable();
> @@ -199,10 +199,10 @@ static void smp4m_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
> Â Â Â Â Â Â Â Â{
> Â Â Â Â Â Â Â Â Â Â Â Âregister int i;
>
> - Â Â Â Â Â Â Â Â Â Â Â cpu_clear(smp_processor_id(), mask);
> - Â Â Â Â Â Â Â Â Â Â Â cpus_and(mask, cpu_online_map, mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_clear_cpu(smp_processor_id(), &mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_and(&mask, cpu_online_mask, &mask);
> Â Â Â Â Â Â Â Â Â Â Â Âfor (i = 0; i < ncpus; i++) {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpu_isset(i, mask)) {
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (cpumask_test_cpu(i, &mask)) {
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_in[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âccall_info.processors_out[i] = 0;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âset_cpu_int(i, IRQ_CROSS_CALL);
> @@ -218,7 +218,7 @@ static void smp4m_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_in[i])
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âbarrier();
> @@ -226,7 +226,7 @@ static void smp4m_cross_call(smpfunc_t func, cpumask_t mask, unsigned long arg1,
>
> Â Â Â Â Â Â Â Â Â Â Â Âi = 0;
> Â Â Â Â Â Â Â Â Â Â Â Âdo {
> - Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpu_isset(i, mask))
> + Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â if (!cpumask_test_cpu(i, &mask))
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âwhile (!ccall_info.processors_out[i])
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âbarrier();
> diff --git a/arch/sparc/kernel/sysfs.c b/arch/sparc/kernel/sysfs.c
> index 1eb8b00..7408201 100644
> --- a/arch/sparc/kernel/sysfs.c
> +++ b/arch/sparc/kernel/sysfs.c
> @@ -103,9 +103,10 @@ static unsigned long run_on_cpu(unsigned long cpu,
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âunsigned long (*func)(unsigned long),
> Â Â Â Â Â Â Â Â Â Â Â Â Â Â Â Âunsigned long arg)
> Â{
> - Â Â Â cpumask_t old_affinity = current->cpus_allowed;
> + Â Â Â cpumask_t old_affinity;
> Â Â Â Âunsigned long ret;
>
> + Â Â Â cpumask_copy(&old_affinity, tsk_cpus_allowed(current));
> Â Â Â Â/* should return -EINVAL to userspace */
> Â Â Â Âif (set_cpus_allowed_ptr(current, cpumask_of(cpu)))
> Â Â Â Â Â Â Â Âreturn 0;
> diff --git a/arch/sparc/kernel/us2e_cpufreq.c b/arch/sparc/kernel/us2e_cpufreq.c
> index 8f982b7..531d54f 100644
> --- a/arch/sparc/kernel/us2e_cpufreq.c
> +++ b/arch/sparc/kernel/us2e_cpufreq.c
> @@ -237,7 +237,7 @@ static unsigned int us2e_freq_get(unsigned int cpu)
> Â Â Â Âif (!cpu_online(cpu))
> Â Â Â Â Â Â Â Âreturn 0;
>
> - Â Â Â cpus_allowed = current->cpus_allowed;
> + Â Â Â cpumask_copy(&cpus_allowed, tsk_cpus_allowed(current));
> Â Â Â Âset_cpus_allowed_ptr(current, cpumask_of(cpu));
>
> Â Â Â Âclock_tick = sparc64_get_clock_tick(cpu) / 1000;
> @@ -258,7 +258,7 @@ static void us2e_set_cpu_divider_index(unsigned int cpu, unsigned int index)
> Â Â Â Âif (!cpu_online(cpu))
> Â Â Â Â Â Â Â Âreturn;
>
> - Â Â Â cpus_allowed = current->cpus_allowed;
> + Â Â Â cpumask_copy(&cpus_allowed, tsk_cpus_allowed(current));
> Â Â Â Âset_cpus_allowed_ptr(current, cpumask_of(cpu));
>
> Â Â Â Ânew_freq = clock_tick = sparc64_get_clock_tick(cpu) / 1000;
> diff --git a/arch/sparc/kernel/us3_cpufreq.c b/arch/sparc/kernel/us3_cpufreq.c
> index f35d1e7..9a8ceb7 100644
> --- a/arch/sparc/kernel/us3_cpufreq.c
> +++ b/arch/sparc/kernel/us3_cpufreq.c
> @@ -85,7 +85,7 @@ static unsigned int us3_freq_get(unsigned int cpu)
> Â Â Â Âif (!cpu_online(cpu))
> Â Â Â Â Â Â Â Âreturn 0;
>
> - Â Â Â cpus_allowed = current->cpus_allowed;
> + Â Â Â cpumask_copy(&cpus_allowed, tsk_cpus_allowed(current));
> Â Â Â Âset_cpus_allowed_ptr(current, cpumask_of(cpu));
>
> Â Â Â Âreg = read_safari_cfg();
> @@ -105,7 +105,7 @@ static void us3_set_cpu_divider_index(unsigned int cpu, unsigned int index)
> Â Â Â Âif (!cpu_online(cpu))
> Â Â Â Â Â Â Â Âreturn;
>
> - Â Â Â cpus_allowed = current->cpus_allowed;
> + Â Â Â cpumask_copy(&cpus_allowed, tsk_cpus_allowed(current));
> Â Â Â Âset_cpus_allowed_ptr(current, cpumask_of(cpu));
>
> Â Â Â Ânew_freq = sparc64_get_clock_tick(cpu) / 1000;
> diff --git a/arch/sparc/mm/init_64.c b/arch/sparc/mm/init_64.c
> index 2f6ae1d..e10cd03 100644
> --- a/arch/sparc/mm/init_64.c
> +++ b/arch/sparc/mm/init_64.c
> @@ -862,7 +862,7 @@ static void init_node_masks_nonnuma(void)
> Â Â Â Âfor (i = 0; i < NR_CPUS; i++)
> Â Â Â Â Â Â Â Ânuma_cpu_lookup_table[i] = 0;
>
> - Â Â Â numa_cpumask_lookup_table[0] = CPU_MASK_ALL;
> + Â Â Â cpumask_setall(&numa_cpumask_lookup_table[0]);
> Â}
>
> Â#ifdef CONFIG_NEED_MULTIPLE_NODES
> @@ -1080,7 +1080,7 @@ static void __init numa_parse_mdesc_group_cpus(struct mdesc_handle *md,
> Â{
> Â Â Â Âu64 arc;
>
> - Â Â Â cpus_clear(*mask);
> + Â Â Â cpumask_clear(mask);
>
> Â Â Â Âmdesc_for_each_arc(arc, md, grp, MDESC_ARC_TYPE_BACK) {
> Â Â Â Â Â Â Â Âu64 target = mdesc_arc_target(md, arc);
> @@ -1091,7 +1091,7 @@ static void __init numa_parse_mdesc_group_cpus(struct mdesc_handle *md,
> Â Â Â Â Â Â Â Â Â Â Â Âcontinue;
> Â Â Â Â Â Â Â Âid = mdesc_get_property(md, target, "id", NULL);
> Â Â Â Â Â Â Â Âif (*id < nr_cpu_ids)
> - Â Â Â Â Â Â Â Â Â Â Â cpu_set(*id, *mask);
> + Â Â Â Â Â Â Â Â Â Â Â cpumask_set_cpu(*id, mask);
> Â Â Â Â}
> Â}
>
> @@ -1153,13 +1153,13 @@ static int __init numa_parse_mdesc_group(struct mdesc_handle *md, u64 grp,
>
> Â Â Â Ânuma_parse_mdesc_group_cpus(md, grp, &mask);
>
> - Â Â Â for_each_cpu_mask(cpu, mask)
> + Â Â Â for_each_cpu(cpu, &mask)
> Â Â Â Â Â Â Â Ânuma_cpu_lookup_table[cpu] = index;
> - Â Â Â numa_cpumask_lookup_table[index] = mask;
> + Â Â Â cpumask_copy(&numa_cpumask_lookup_table[index], &mask);
>
> Â Â Â Âif (numa_debug) {
> Â Â Â Â Â Â Â Âprintk(KERN_INFO "NUMA GROUP[%d]: cpus [ ", index);
> - Â Â Â Â Â Â Â for_each_cpu_mask(cpu, mask)
> + Â Â Â Â Â Â Â for_each_cpu(cpu, &mask)
> Â Â Â Â Â Â Â Â Â Â Â Âprintk("%d ", cpu);
> Â Â Â Â Â Â Â Âprintk("]\n");
> Â Â Â Â}
> @@ -1218,7 +1218,7 @@ static int __init numa_parse_jbus(void)
> Â Â Â Âindex = 0;
> Â Â Â Âfor_each_present_cpu(cpu) {
> Â Â Â Â Â Â Â Ânuma_cpu_lookup_table[cpu] = index;
> - Â Â Â Â Â Â Â numa_cpumask_lookup_table[index] = cpumask_of_cpu(cpu);
> + Â Â Â Â Â Â Â cpumask_copy(&numa_cpumask_lookup_table[index], cpumask_of(cpu));
> Â Â Â Â Â Â Â Ânode_masks[index].mask = ~((1UL << 36UL) - 1UL);
> Â Â Â Â Â Â Â Ânode_masks[index].val = cpu << 36UL;
>
> --
> 1.7.3.1
>
>
>
> --
> To unsubscribe from this list: send the line "unsubscribe linux-kernel" in
> the body of a message to majordomo@xxxxxxxxxxxxxxx
> More majordomo info at Âhttp://vger.kernel.org/majordomo-info.html
> Please read the FAQ at Âhttp://www.tux.org/lkml/
>
N§²æìr¸yúèØb²X¬¶ÇvØ^)Þ{.nÇ+·¥{±êçzX§¶¡Ü}©²ÆzÚ&j:+v¨¾«êçzZ+Ê+zf£¢·h§~Ûiÿûàz¹®w¥¢¸?¨èÚ&¢)ßfù^jÇy§m
á@A«a¶Úÿ0¶ìh®åi