Domanda di intervista facile diventa più difficile: dati numeri 1..100, trova il numero (i) mancante (i)

Ho avuto un’interessante esperienza di colloquio di lavoro qualche tempo fa. La domanda è iniziata davvero facile:

Q1 : abbiamo una borsa contenente i numeri 1 , 2 , 3 , …, 100 . Ogni numero appare esattamente una volta, quindi ci sono 100 numeri. Ora un numero viene estratto a caso dalla borsa. Trova il numero mancante.

Ho già sentito questa domanda di intervista, ovviamente, quindi ho risposto molto velocemente in questo modo:

A1 : Beh, la sum dei numeri 1 + 2 + 3 + … + N è (N+1)(N/2) (vedi Wikipedia: sum delle serie aritmetiche ). Per N = 100 , la sum è 5050 .

Quindi, se tutti i numeri sono presenti nella borsa, la sum sarà esattamente 5050 . Poiché manca un numero, la sum sarà inferiore a questo e la differenza è quel numero. Quindi possiamo trovare quel numero mancante nel tempo O(N) e nello spazio O(1) .

A questo punto pensavo di aver fatto bene, ma all’improvviso la domanda ha preso una piega inaspettata:

Q2 : È corretto, ma ora come lo faresti se mancano DUE numeri?

Non avevo mai visto / sentito / considerato questa variazione prima, quindi sono entrato nel panico e non ho potuto rispondere alla domanda. L’intervistatore ha insistito per conoscere il mio processo di pensiero, quindi ho detto che forse possiamo ottenere maggiori informazioni confrontandole con il prodotto atteso, o magari facendo un secondo passaggio dopo aver raccolto alcune informazioni dal primo passaggio, ecc., Ma stavo proprio riprendendo nel buio invece di avere un chiaro percorso verso la soluzione.

L’intervistatore ha cercato di incoraggiarmi dicendo che avere una seconda equazione è davvero un modo per risolvere il problema. A questo punto ero piuttosto turbato (per non conoscere la risposta in anticipo), e ho chiesto se si tratta di una tecnica di programmazione generale (leggi: “utile”), o se è solo una risposta trick / getcha.

La risposta dell’intervistatore mi ha sorpreso: puoi generalizzare la tecnica per trovare 3 numeri mancanti. In effetti, puoi generalizzarlo per trovare k numeri mancanti.

Qk : Se nella borsa mancano esattamente k numeri, come lo troveresti in modo efficiente?

Questo era un paio di mesi fa, e ancora non riuscivo a capire quale fosse questa tecnica. Ovviamente esiste un limite inferiore di tempo Ω(N) poiché è necessario eseguire la scansione di tutti i numeri almeno una volta, ma l’intervistatore ha insistito sul fatto che la complessità di TIME e SPAZIO della tecnica di risoluzione (meno la scansione dell’ingresso del tempo O(N) ) è definita in k non N.

Quindi la domanda qui è semplice:

  • Come risolveresti la Q2 ?
  • Come risolveresti la Q3 ?
  • Come risolveresti Qk ?

chiarimenti

  • Generalmente ci sono N numeri da 1 .. N , non solo 1..100.
  • Non sto cercando l’ovvia soluzione basata su set, ad esempio utilizzando un set di bit , codificando la presenza / assenza di ogni numero in base al valore di un bit designato, quindi utilizzando i bit O(N) nello spazio aggiuntivo. Non possiamo permetterci alcuno spazio aggiuntivo proporzionale a N.
  • Inoltre, non sto cercando l’ovvio approccio di tipo first. Questo e l’approccio basato sul set sono degni di menzione in un’intervista (sono facili da implementare e, a seconda di N , possono essere molto pratici). Sto cercando la soluzione Holy Grail (che può essere o non essere pratica da implementare, ma ha comunque le caratteristiche asintotiche desiderate).

Quindi, di nuovo, ovviamente è necessario eseguire la scansione dell’ingresso in O(N) , ma è ansible acquisire solo una piccola quantità di informazioni (definite in termini di k non N ), e quindi trovare i k numeri mancanti in qualche modo.

Ecco un riassunto del link di Dimitris Andreou .

Ricorda la sum dei poteri i-esimo, dove i = 1,2, .., k. Questo riduce il problema alla risoluzione del sistema di equazioni

a 1 + a 2 + … + a k = b 1

a 1 2 + a 2 2 + … + a k 2 = b 2

a 1 k + a 2 k + … + a k k = b k

Usando le id quadro di Newton , sapendo che è ansible calcolare

c 1 = a 1 + a 2 + … a k

c 2 = a 1 a 2 + a 1 a 3 + … + a k-1 a k

c k = a 1 a 2 … a k

Se espandi il polinomio (xa 1 ) … (xa k ) i coefficienti saranno esattamente c 1 , …, c k – vedi le formule di Viète . Poiché ogni singolo fattore polinomiale è univoco (l’anello dei polinomi è un dominio euclideo ), ciò significa che un io è determinato in modo univoco, fino alla permutazione.

Questo conclude una dimostrazione che ricordare i poteri è sufficiente per recuperare i numeri. Per k costante, questo è un buon approccio.

Tuttavia, quando k è variabile, l’approccio diretto del calcolo c 1 , …, c k è proibitivamente costoso, poiché eg c k è il prodotto di tutti i numeri mancanti, magnitudine n! / (Nk) !. Per superare questo, eseguire calcoli nel campo Z q , dove q è un numero primo tale che n <= q <2n - esiste per il postulato di Bertrand . Non è necessario modificare la dimostrazione, poiché le formule sono ancora valide e la fattorizzazione dei polinomi è ancora unica. È inoltre necessario un algoritmo per la fattorizzazione su campi finiti, ad esempio quello di Berlekamp o Cantor-Zassenhaus .

Pseudocodice di alto livello per k costante:

  • Calcola i-esi poteri di determinati numeri
  • Sottrai per ottenere somme di i-esimo potere di numeri sconosciuti. Chiama le somme b i .
  • Usa le identity framework di Newton per calcolare i coefficienti da b i ; chiamali c i . Fondamentalmente, c 1 = b 1 ; c 2 = (c 1 b 1 – b 2 ) / 2; vedi Wikipedia per le formule esatte
  • Fattore del polinomio x k -c 1 x k-1 + … + c k .
  • Le radici del polinomio sono i numeri necessari a 1 , …, a k .

Per variare k, trovare un primo n <= q <2n usando ad esempio Miller-Rabin ed eseguire i passaggi con tutti i numeri ridotti modulo q.

Come ha commentato Heinrich Apfelmus, invece di una q primaria puoi usare q = 2 ⌈log n⌉ ed eseguire aritmetica nel campo finito .

Lo troverai leggendo le due pagine di Muthukrishnan – Algoritmi del stream di dati: Puzzle 1: Ricerca di numeri mancanti . Mostra esattamente la generalizzazione che stai cercando . Probabilmente questo è ciò che il tuo intervistatore ha letto e perché ha posto queste domande.

Ora, se solo le persone iniziassero a cancellare le risposte che sono state soppresse o sostituite dal trattamento di Muthukrishnan, e rendere più facile trovare questo testo. 🙂


Vedi anche la risposta diretta di sdcvvc , che include anche lo pseudocodice (evviva! Non c’è bisogno di leggere quelle formule matematiche difficili :)) (grazie, ottimo lavoro!).

Possiamo risolvere Q2 sumndo sia i numeri stessi, sia i quadrati dei numeri.

Possiamo quindi ridurre il problema a

 k1 + k2 = x k1^2 + k2^2 = y 

Dove x e y sono quanto sono lontane le somme al di sotto dei valori attesi.

Sostituire ci dà:

 (x-k2)^2 + k2^2 = y 

Che poi possiamo risolvere per determinare i nostri numeri mancanti.

Come sottolineato da @j_random_hacker, questo è abbastanza simile alla ricerca di duplicati nel tempo O (n) e nello spazio O (1) , e un adattamento della mia risposta qui funziona anche qui.

Supponendo che il “sacchetto” sia rappresentato da un array A[] di dimensione N - k , possiamo risolvere Qk in tempo O(N) e O(k) spazio addizionale.

Innanzitutto, estendiamo il nostro array A[] per k elementi, così che ora è di dimensione N Questo è lo spazio aggiuntivo O(k) . Quindi eseguiamo il seguente algoritmo pseudo-codice:

 for i := n - k + 1 to n A[i] := A[1] end for for i := 1 to n - k while A[A[i]] != A[i] swap(A[i], A[A[i]]) end while end for for i := 1 to n if A[i] != i then print i end if end for 

Il primo ciclo inizializza le k voci extra alla stessa della prima voce nell’array (questo è solo un valore conveniente che sappiamo essere già presente nell’array – dopo questo passaggio, tutte le voci mancanti nell’array iniziale di dimensioni Nk mancano ancora nell’array esteso).

Il secondo ciclo permuta l’array esteso in modo che se l’elemento x è presente almeno una volta, una di queste voci sarà nella posizione A[x] .

Si noti che sebbene abbia un ciclo annidato, gira ancora in tempo O(N) – uno scambio avviene solo se esiste un i tale che A[i] != i , e ogni scambio imposta almeno un elemento tale che A[i] == i , dove non era vero prima. Ciò significa che il numero totale di swap (e quindi il numero totale di esecuzioni del corpo del ciclo while ) è al massimo N-1 .

Il terzo ciclo stampa quegli indici dell’array i che non sono occupati dal valore i – questo significa che devo essermi perso.

Ho chiesto a un bambino di 4 anni di risolvere questo problema. Ha ordinato i numeri e poi contato. Questo ha uno spazio necessario per O (pavimento della cucina) e funziona altrettanto facilmente, anche se mancano molte palle.

Non sono sicuro, se è la soluzione più efficiente, ma farei un loop su tutte le voci, e uso un bitset da ricordare, quali numeri sono impostati, e quindi testare 0 bit.

Mi piacciono le soluzioni semplici – e credo anche che potrebbe essere più veloce del calcolo della sum, o della sum dei quadrati ecc.

Non ho controllato i calcoli matematici, ma sospetto che il calcolo di Σ(n^2) nella stessa passata del calcolo Σ(n) fornisca informazioni sufficienti per ottenere due numeri mancanti, Do Σ(n^3) anche se ce ne sono tre e così via.

Il problema con le soluzioni basate su somme di numeri è che non tengono conto del costo di archiviazione e di lavoro con numeri con grandi esponenti … in pratica, perché funzioni per n molto grandi, sarebbe usata una grande libreria di numeri . Possiamo analizzare l’utilizzo dello spazio per questi algoritmi.

Possiamo analizzare la complessità del tempo e dello spazio degli algoritmi di sdcvvc e Dimitris Andreou.

Conservazione:

 l_j = ceil (log_2 (sum_{i=1}^ni^j)) l_j > log_2 n^j (assuming n >= 0, k >= 0) l_j > j log_2 n \in \Omega(j log n) l_j < log_2 ((sum_{i=1}^ni)^j) + 1 l_j < j log_2 (n) + j log_2 (n + 1) - j log_2 (2) + 1 l_j < j log_2 n + j + c \in O(j log n)` 

Quindi l_j \in \Theta(j log n)

\sum_{j=1}^k l_j \in \Theta(k^2 log n) archiviazione totale utilizzato: \sum_{j=1}^k l_j \in \Theta(k^2 log n)

Spazio utilizzato: partendo dal presupposto che il calcolo di a^j prende tempo ceil(log_2 j) , tempo totale:

 t = k ceil(\sum_i=1^n log_2 (i)) = k ceil(log_2 (\prod_i=1^n (i))) t > k log_2 (n^n + O(n^(n-1))) t > k log_2 (n^n) = kn log_2 (n) \in \Omega(kn log n) t < k log_2 (\prod_i=1^ni^i) + 1 t < kn log_2 (n) + 1 \in O(kn log n) 

Tempo totale utilizzato: \Theta(kn log n)

Se questo tempo e spazio sono soddisfacenti, puoi usare un semplice algoritmo ricorsivo. Sia B! I la voce ith nella borsa, n il numero di numeri prima delle rimozioni e k il numero di rimozioni. Nella syntax di Haskell ...

 let -- O(1) isInRange low high v = (v >= low) && (v <= high) -- O(n - k) countInRange low high = sum $ map (fromEnum . isInRange low high . (!)b) [1..(nk)] findMissing l low high krange -- O(1) if there is nothing to find. | krange=0 = l -- O(1) if there is only one possibility. | low=high = low:l -- Otherwise total of O(knlog(n)) time | otherwise = let mid = (low + high) `div` 2 klow = countInRange low mid khigh = krange - klow in findMissing (findMissing low mid klow) (mid + 1) high khigh in findMising 1 (n - k) k 

Memoria utilizzata: O(k) per la lista, O(log(n)) per lo stack: O(k + log(n)) Questo algoritmo è più intuitivo, ha la stessa complessità temporale e utilizza meno spazio.

Apetta un minuto. Poiché la domanda è affermata, ci sono 100 numeri nella borsa. Non importa quanto sia grande k, il problema può essere risolto in tempo costante perché è ansible utilizzare un set e rimuovere i numeri dall’insieme al massimo di 100 k di iterazioni di un loop. 100 è costante. Il set di numeri rimanenti è la tua risposta.

Se generalizziamo la soluzione ai numeri da 1 a N, nulla cambia tranne N non è una costante, quindi siamo in O (N – k) = O (N). Ad esempio, se usiamo un bit impostato, impostiamo i bit a 1 in tempo O (N), iteriamo attraverso i numeri, impostando i bit su 0 mentre andiamo (O (Nk) = O (N)) e poi avere la risposta

Mi sembra che l’intervistatore ti stesse chiedendo come stampare il contenuto del set finale nel tempo O (k) piuttosto che nel tempo O (N). Chiaramente, con un bit impostato, è necessario scorrere tutti gli N bit per determinare se è necessario stampare il numero o meno. Tuttavia, se si modifica il modo in cui il set è implementato, è ansible stampare i numeri in k iterazioni. Questo viene fatto inserendo i numeri in un object da memorizzare sia in un set di hash che in un elenco doppiamente collegato. Quando rimuovi un object dal set di hash, lo rimuovi anche dall’elenco. Le risposte saranno lasciate nella lista che ora è di lunghezza k.

Ecco una soluzione che utilizza k bit di memoria extra, senza trucchi intelligenti e semplice. Tempo di esecuzione O (n), spazio extra O (k). Solo per dimostrare che questo può essere risolto senza prima leggere la soluzione o essere un genio:

 void puzzle (int* data, int n, bool* extra, int k) { // data contains n distinct numbers from 1 to n + k, extra provides // space for k extra bits. // Rearrange the array so there are (even) even numbers at the start // and (odd) odd numbers at the end. int even = 0, odd = 0; while (even + odd < n) { if (data [even] % 2 == 0) ++even; else if (data [n - 1 - odd] % 2 == 1) ++odd; else { int tmp = data [even]; data [even] = data [n - 1 - odd]; data [n - 1 - odd] = tmp; ++even; ++odd; } } // Erase the lowest bits of all numbers and set the extra bits to 0. for (int i = even; i < n; ++i) data [i] -= 1; for (int i = 0; i < k; ++i) extra [i] = false; // Set a bit for every number that is present for (int i = 0; i < n; ++i) { int tmp = data [i]; tmp -= (tmp % 2); if (i >= odd) ++tmp; if (tmp <= n) data [tmp - 1] += 1; else extra [tmp - n - 1] = true; } // Print out the missing ones for (int i = 1; i <= n; ++i) if (data [i - 1] % 2 == 0) printf ("Number %d is missing\n", i); for (int i = n + 1; i <= n + k; ++i) if (! extra [i - n - 1]) printf ("Number %d is missing\n", i); // Restore the lowest bits again. for (int i = even; i < n; ++i) data [i] += 1; } 

Per risolvere la domanda dei numeri mancanti 2 (e 3), è ansible modificare quickselect , che in media viene eseguito in O(n) e utilizza la memoria costante se il partizionamento viene eseguito sul posto.

  1. Partizionare l’insieme rispetto a un pivot casuale p nelle partizioni l , che contengono numeri inferiori al pivot, e r , che contengono numeri maggiori del pivot.

  2. Determina quali partizioni sono presenti i 2 numeri mancanti confrontando il valore pivot con la dimensione di ciascuna partizione ( p - 1 - count(l) = count of missing numbers in l n - count(r) - p = count of missing numbers in r )

  3. a) Se ad ogni partizione manca un numero, utilizzare la differenza di approccio su somme per trovare ciascun numero mancante.

    (1 + 2 + ... + (p-1)) - sum(l) = missing #1 e ((p+1) + (p+2) ... + n) - sum(r) = missing #2

    b) Se una partizione manca entrambi i numeri e la partizione è vuota, i numeri mancanti sono (p-1,p-2) o (p+1,p+2) seconda di quale partizione mancano i numeri.

    Se una partizione manca 2 numeri ma non è vuota, quindi ricorrere a quella partizione.

Con solo 2 numeri mancanti, questo algoritmo scarta sempre almeno una partizione, quindi mantiene O(n) complessità temporale media di quickselect. Allo stesso modo, con 3 numeri mancanti questo algoritmo elimina anche almeno una partizione con ciascun passaggio (perché come con 2 numeri mancanti, al massimo solo 1 partizione conterrà più numeri mancanti). Tuttavia, non sono sicuro di quanto le prestazioni diminuiscano quando vengono aggiunti altri numeri mancanti.

Ecco un’implementazione che non usa il partizionamento sul posto, quindi questo esempio non soddisfa i requisiti di spazio ma illustra i passaggi dell’algoritmo:

  

dimostrazione

Puoi verificare se ogni numero esiste? Se sì, puoi provare questo:

S = sum di tutti i numeri nel sacco (S <5050)
Z = sum dei numeri mancanti 5050 – S

se i numeri mancanti sono y allora:

x = Z – y e
max (x) = Z – 1

Quindi controlli l’intervallo da 1 a max(x) e trova il numero

Puoi risolvere Q2 se hai la sum di entrambe le liste e il prodotto di entrambe le liste.

(l1 è l’originale, l2 è l’elenco modificato)

 d = sum(l1) - sum(l2) m = mul(l1) / mul(l2) 

Possiamo ottimizzare questo dato che la sum di una serie aritmetica è n volte la media del primo e dell’ultimo termine:

 n = len(l1) d = (n/2)*(n+1) - sum(l2) 

Now we know that (if a and b are the removed numbers):

 a + b = d a * b = m 

So we can rearrange to:

 a = s - b b * (s - b) = m 

And multiply out:

 -b^2 + s*b = m 

And rearrange so the right side is zero:

 -b^2 + s*b - m = 0 

Then we can solve with the quadratic formula:

 b = (-s + sqrt(s^2 - (4*-1*-m)))/-2 a = s - b 

Sample Python 3 code:

 from functools import reduce import operator import math x = list(range(1,21)) sx = (len(x)/2)*(len(x)+1) x.remove(15) x.remove(5) mul = lambda l: reduce(operator.mul,l) s = sx - sum(x) m = mul(range(1,21)) / mul(x) b = (-s + math.sqrt(s**2 - (-4*(-m))))/-2 a = s - b print(a,b) #15,5 

I do not know the complexity of the sqrt, reduce and sum functions so I cannot work out the complexity of this solution (if anyone does know please comment below.)

May be this algorithm can work for question 1:

  1. Precompute xor of first 100 integers(val=1^2^3^4….100)
  2. xor the elements as they keep coming from input stream ( val1=val1^next_input)
  3. final answer=val^val1

Or even better:

 def GetValue(A) for i=1 to 100 do val=val^i done for value in A: do val=val^value done return val 

This algorithm can in fact be expanded for two missing numbers. The first step remains the same. When we call GetValue with two missing numbers the result will be a a1^a2 are the two missing numbers. Lets say

val = a1^a2

Now to sieve out a1 and a2 from val we take any set bit in val. Lets say the ith bit is set in val. That means that a1 and a2 have different parity at ith bit position. Now we do another iteration on the original array and keep two xor values. One for the numbers which have the ith bit set and other which doesn’t have the ith bit set. We now have two buckets of numbers, and its guranteed that a1 and a2 will lie in different buckets. Now repeat the same what we did for finding one missing element on each of the bucket.

I think this can be done without any complex mathematical equations and theories. Below is a proposal for an in place and O(2n) time complexity solution:

Input form assumptions :

# of numbers in bag = n

# of missing numbers = k

The numbers in the bag are represented by an array of length n

Length of input array for the algo = n

Missing entries in the array (numbers taken out of the bag) are replaced by the value of the first element in the array.

Per esempio. Initially bag looks like [2,9,3,7,8,6,4,5,1,10]. If 4 is taken out, value of 4 will become 2 (the first element of the array). Therefore after taking 4 out the bag will look like [2,9,3,7,8,6,2,5,1,10]

The key to this solution is to tag the INDEX of a visited number by negating the value at that INDEX as the array is traversed.

  IEnumerable GetMissingNumbers(int[] arrayOfNumbers) { List missingNumbers = new List(); int arrayLength = arrayOfNumbers.Length; //First Pass for (int i = 0; i < arrayLength; i++) { int index = Math.Abs(arrayOfNumbers[i]) - 1; if (index > -1) { arrayOfNumbers[index] = Math.Abs(arrayOfNumbers[index]) * -1; //Marking the visited indexes } } //Second Pass to get missing numbers for (int i = 0; i < arrayLength; i++) { //If this index is unvisited, means this is a missing number if (arrayOfNumbers[i] > 0) { missingNumbers.Add(i + 1); } } return missingNumbers; } 

For Q2 this is a solution that is a bit more inefficient than the others, but still has O(N) runtime and takes O(k) space.

The idea is to run the original algorithm two times. In the first one you get a total number which is missing, which gives you an upper bound of the missing numbers. Let’s call this number N . You know that the missing two numbers are going to sum up to N , so the first number can only be in the interval [1, floor((N-1)/2)] while the second is going to be in [floor(N/2)+1,N-1] .

Thus you loop on all numbers once again, discarding all numbers that are not included in the first interval. The ones that are, you keep track of their sum. Finally, you’ll know one of the missing two numbers, and by extension the second.

I have a feeling that this method could be generalized and maybe multiple searches run in “parallel” during a single pass over the input, but I haven’t yet figured out how.

Very nice problem. I’d go for using a set difference for Qk. A lot of programming languages even have support for it, like in Ruby:

 missing = (1..100).to_a - bag 

It’s probably not the most efficient solution but it’s one I would use in real life if I was faced with such a task in this case (known boundaries, low boundaries). If the set of number would be very large then I would consider a more efficient algorithm, of course, but until then the simple solution would be enough for me.

I’d take a different approach to that question and probe the interviewer for more details about the larger problem he’s trying to solve. Depending on the problem and the requirements surrounding it, the obvious set-based solution might be the right thing and the generate-a-list-and-pick-through-it-afterward approach might not.

For example, it might be that the interviewer is going to dispatch n messages and needs to know the k that didn’t result in a reply and needs to know it in as little wall clock time as possible after the nk th reply arrives. Let’s also say that the message channel’s nature is such that even running at full bore, there’s enough time to do some processing between messages without having any impact on how long it takes to produce the end result after the last reply arrives. That time can be put to use inserting some identifying facet of each sent message into a set and deleting it as each corresponding reply arrives. Once the last reply has arrived, the only thing to be done is to remove its identifier from the set, which in typical implementations takes O(log k+1) . After that, the set contains the list of k missing elements and there’s no additional processing to be done.

This certainly isn’t the fastest approach for batch processing pre-generated bags of numbers because the whole thing runs O((log 1 + log 2 + ... + log n) + (log n + log n-1 + ... + log k)) . But it does work for any value of k (even if it’s not known ahead of time) and in the example above it was applied in a way that minimizes the most critical interval.

You can motivate the solution by thinking about it in terms of symmetries (groups, in math language). No matter the order of the set of numbers, the answer should be the same. If you’re going to use k functions to help determine the missing elements, you should be thinking about what functions have that property: symmetric. The function s_1(x) = x_1 + x_2 + ... + x_n is an example of a symmetric function, but there are others of higher degree. In particular, consider the elementary symmetric functions . The elementary symmetric function of degree 2 is s_2(x) = x_1 x_2 + x_1 x_3 + ... + x_1 x_n + x_2 x_3 + ... + x_(n-1) x_n , the sum of all products of two elements. Similarly for the elementary symmetric functions of degree 3 and higher. They are obviously symmetric. Furthermore, it turns out they are the building blocks for all symmetric functions.

You can build the elementary symmetric functions as you go by noting that s_2(x,x_(n+1)) = s_2(x) + s_1(x)(x_(n+1)) . Further thought should convince you that s_3(x,x_(n+1)) = s_3(x) + s_2(x)(x_(n+1)) and so on, so they can be computed in one pass.

How do we tell which items were missing from the array? Think about the polynomial (z-x_1)(z-x_2)...(z-x_n) . It evaluates to 0 if you put in any of the numbers x_i . Expanding the polynomial, you get z^n-s_1(x)z^(n-1)+ ... + (-1)^n s_n . The elementary symmetric functions appear here too, which is really no surprise, since the polynomial should stay the same if we apply any permutation to the roots.

So we can build the polynomial and try to factor it to figure out which numbers are not in the set, as others have mentioned.

Finally, if we are concerned about overflowing memory with large numbers (the nth symmetric polynomial will be of the order 100! ), we can do these calculations mod p where p is a prime bigger than 100. In that case we evaluate the polynomial mod p and find that it again evaluates to 0 when the input is a number in the set, and it evaluates to a non-zero value when the input is a number not in the set. However, as others have pointed out, to get the values out of the polynomial in time that depends on k , not N , we have to factor the polynomial mod p .

You’d probably need clarification on what O(k) means.

Here’s a trivial solution for arbitrary k: for each v in your set of numbers, accumulate the sum of 2^v. At the end, loop i from 1 to N. If sum modulo 2^i is zero, then i is missing.

Easy, right? O(N) time, O(1) storage, and it supports arbitrary k.

Except that you’re computing enormous numbers that on a real computer would each require O(N) space. In fact, this solution is identical to a bit vector.

So you could be clever and compute the sum and the sum of squares and the sum of cubes… up to the sum of v^k, and do the fancy math to extract the result. But those are big numbers too, which begs the question: what abstract model of operation are we talking about? How much fits in O(1) space, and how long does it take to sum up numbers of whatever size you need?

There is a general way to generalize streaming algorithms like this. The idea is to use a bit of randomization to hopefully ‘spread’ the k elements into independent sub problems, where our original algorithm solves the problem for us. This technique is used in sparse signal reconstruction, among other things.

  • Make an array, a , of size u = k^2 .
  • Pick any universal hash function , h : {1,...,n} -> {1,...,u} . (Like multiply-shift )
  • For each i in 1, ..., n increase a[h(i)] += i
  • For each number x in the input stream, decrement a[h(x)] -= x .

If all of the missing numbers have been hashed to different buckets, the non-zero elements of the array will now contain the missing numbers.

The probability that a particular pair is sent to the same bucket, is less than 1/u by definition of a universal hash function. Since there are about k^2/2 pairs, we have that the error probability is at most k^2/2/u=1/2 . That is, we succeed with probability at least 50%, and if we increase u we increase our chances.

Notice that this algorithm takes k^2 logn bits of space (We need logn bits per array bucket.) This matches the space required by @Dimitris Andreou’s answer (In particular the space requirement of polynomial factorization, which happens to also be randomized.) This algorithm also has constant time per update, rather than time k in the case of power-sums.

In fact, we can be even more efficient than the power sum method by using the trick described in the comments.

You could try using a Bloom Filter . Insert each number in the bag into the bloom, then iterate over the complete 1-k set until reporting each one not found. This may not find the answer in all scenarios, but might be a good enough solution.

I believe I have a O(k) time and O(log(k)) space algorithm, given that you have the floor(x) and log2(x) functions for arbitrarily big integers available:

You have an k -bit long integer (hence the log8(k) space) where you add the x^2 , where x is the next number you find in the bag: s=1^2+2^2+... This takes O(N) time (which is not a problem for the interviewer). At the end you get j=floor(log2(s)) which is the biggest number you’re looking for. Then s=sj and you do again the above:

 for (i = 0 ; i < k ; i++) { j = floor(log2(s)); missing[i] = j; s -= j; } 

Now, you usually don't have floor and log2 functions for 2756 -bit integers but instead for doubles. So? Simply, for each 2 bytes (or 1, or 3, or 4) you can use these functions to get the desired numbers, but this adds an O(N) factor to time complexity

This might sound stupid, but, in the first problem presented to you, you would have to see all the remaining numbers in the bag to actually add them up to find the missing number using that equation.

So, since you get to see all the numbers, just look for the number that’s missing. The same goes for when two numbers are missing. Pretty simple I think. No point in using an equation when you get to see the numbers remaining in the bag.

I think this can be generalized like this:

Denote S, M as the initial values for the sum of arithmetic series and multiplication.

 S = 1 + 2 + 3 + 4 + ... n=(n+1)*n/2 M = 1 * 2 * 3 * 4 * .... * n 

I should think about a formula to calculate this, but that is not the point. Anyway, if one number is missing, you already provided the solution. However, if two numbers are missing then, let’s denote the new sum and total multiple by S1 and M1, which will be as follows:

 S1 = S - (a + b)....................(1) Where a and b are the missing numbers. M1 = M - (a * b)....................(2) 

Since you know S1, M1, M and S, the above equation is solvable to find a and b, the missing numbers.

Now for the three numbers missing:

 S2 = S - ( a + b + c)....................(1) Where a and b are the missing numbers. M2 = M - (a * b * c)....................(2) 

Now your unknown is 3 while you just have two equations you can solve from.

I don’t know whether this is efficient or not but I would like to suggest this solution.

  1. Compute xor of the 100 elements
  2. Compute xor of the 98 elements (after the 2 elements are removed)
  3. Now (result of 1) XOR (result of 2) gives you the xor of the two missing nos i..ea XOR b if a and b are the missing elements
    4.Get the sum of the missing Nos with your usual approach of the sum formula diff and lets say the diff is d.

Now run a loop to get the possible pairs (p,q) both of which lies in [1 , 100] and sum to d.

When a pair is obtained check whether (result of 3) XOR p = q and if yes we are done.

Please correct me if I am wrong and also comment on time complexity if this is correct

I have an idea, but this is assuming that the actual size of the array is 100 and the missing numbers are replaced with something else (like -1).

Basically, do a sort that’s kind of a modified version of a selection sort that swaps the list in-place. I believe this is O(n) time (correct me if I’m wrong though) because we make use of the fact we already know the numbers that should exist. We swap the value with the “correct” position, until the index we are at has the correct number (or has -1).

After we’re done with that, we just loop the list again and the index will basically be the missing numbers

 #Set up the input input = (1..100).to_a.shuffle input[rand(0..99)] = -1 input[rand(0..99)] = -1 def f(a) for i in 0..99 while (a[i] != i+1) && a[i] > 0 v1 = a[i] v2 = a[v1 - 1] a[i] = v2 a[v1 - 1] = v1 end end result = [] a.each_with_index do |value, index| if value < 0 result.push(index + 1) end end return result end #Returns the 2 missing numbers puts f(input) 

We can do the Q1 and Q2 in O(log n) most of the time.

Suppose our memory chip consists of array of n number of test tubes . And a number x in the the test tube is represented by x milliliter of chemical-liquid.

Suppose our processor is a laser light . When we light up the laser it traverses all the tubes perpendicularly to it’s length. Every-time it passes through the chemical liquid, the luminosity is reduced by 1 . And passing the light at certain milliliter mark is an operation of O(1) .

Now if we light our laser at the middle of the test-tube and get the output of luminosity

  • equals to a pre-calculated value(calculated when no numbers were missing), then the missing numbers are greater than n/2 .
  • If our output is smaller, then there is at least one missing number that is smaller than n/2 . We can also check if the luminosity is reduced by 1 or 2 . if it is reduced by 1 then one missing number is smaller than n/2 and other is bigger than n/2 . If it is reduced by 2 then both numbers are smaller than n/2 .

We can repeat the above process again and again narrowing down our problem domain. In each step, we make the domain smaller by half. And finally we can get to our result.

Parallel algorithms that are worth mentioning(because they are interesting),

  • sorting by some parallel algorithm, for example, parallel merge can be done in O(log^3 n) time. And then the missing number can be found by binary search in O(log n) time.
  • Theoretically, if we have n processors then each process can check one of the inputs and set some flag that identifies the number(conveniently in an array). And in the next step each process can check each flag and finally output the number that is not flagged. The whole process will take O(1) time. It has additional O(n) space/memory requirement.

Note, that the two parallel algorithms provided above may need additional space as mentioned in the comment .

Yet another way is using residual graph filtering.

Suppose we have numbers 1 to 4 and 3 is missing. The binary representation is the following,

1 = 001b, 2 = 010b, 3 = 011b, 4 = 100b

And I can create a flow-graph like the following.

  1 1 -------------> 1 | | 2 | 1 | 0 ---------> 1 ----------> 0 | | | | | 1 1 | | 0 ---------> 0 ----------> 0 | | | 1 | 1 | 1 ---------> 0 -------------> 1 

Note that the flow graph contains x nodes, while x being the number of bits. And the maximum number of edges are (2*x)-2 .

So for 32 bit integer it will take O(32) space or O(1) space.

Now if I remove capacity for each number starting from 1,2,4 then I am left with a residual graph.

 0 ----------> 1 ---------> 1 

Finally I shall run a loop like the following,

  result = [] for x in range(1,n): exists_path_in_residual_graph(x) result.append(x) 

Now the result is in result contains numbers that are not missing as well(false positive). But the k <= (size of the result) <= n when there are k missing elements.

I shall go through the given list one last time to mark the result missing or not.

So the time complexity will be O(n) .

Finally, it is possible to reduce the number of false positive(and the space required) by taking nodes 00 , 01 , 11 , 10 instead of just 0 and 1 .

Try to find the product of numbers from 1 to 50:

Let product, P1 = 1 x 2 x 3 x …………. 50

When you take out numbers one by one, multiply them so that you get the product P2. But two numbers are missing here, hence P2 < P1.

The product of the two mising terms, axb = P1 – P2.

You already know the sum, a + b = S1.

From the above two equations, solve for a and b through a quadratic equation. a and b are your missing numbers.